De todas las potencias mundiales, solo una se ha negado a firmar un acuerdo clave: que la IA no controle el botón rojo nuclear

0
38

Si
el
futuro
en
clave
belicista
está
marcado
por

la
tecnología
y
el
avance
de
la
IA
,
es
factible
pensar
que
la
llamada
“guerra
autónoma”
que
veíamos
en
películas
como
‘Terminator’
no
está
tan
lejos
como
pensábamos.
Eso
es
preocupante
en
el
escenario
actual,
donde
no
existe
una
regulación
clara
que
delimite
las
líneas
rojas
en
el
campo
de
batalla.
Sin
supervisión
humana,
el
terreno
abonado
para
darle
las
llaves
a
un
algoritmo
lleva
a
imaginar
escenarios
dantescos.
De
eso
ha
tratado
un
encuentro
entre
90
países,
y
todos
han
llegado
a

la
misma
conclusión
menos
uno
.


Que
la
IA
no
apriete
el
botón.

La
historia
tuvo
lugar
hace
muy
poco
durante

la
cumbre
sobre
Inteligencia
Artificial
Responsable
en
el
Dominio
Militar

(REAIM)
celebrada
en
Seúl.
La
cuestión
de
fondo
no
era
tanto
regular,
de
hecho,
la
firma
final
no
es
vinculante,
pero

era
una
primera
e
importante
aproximación
tácita
entre
países
ante
un
problema
que
tenemos
casi
tocando
la
punta
de
los
dedos.

¿Deberían
las
máquinas
tomar
decisiones
sobre
el
uso
de
armas
nucleares?
Esta
fue
la
gran
pregunta
y
el
debate,
y

todos
menos
China
parecieron
tenerlo
bastante
claro
:
los
humanos,
no
la
inteligencia
artificial,
deberían
tomar
las
decisiones
clave
sobre
el
uso
de
armas
nucleares,
según
se
acordó
el
martes
en
una
declaración.


El
acuerdo.

Este
casi
centenar
de
países,
entre
los
que
se
encontraban
Estados
Unidos,
China,
Reino
Unido,
Países
Bajos
o
Ucrania,
adoptaron
el «Plan
de
Acción»
después
de
dos
días
de
conversaciones.
Como
decíamos,
el
acuerdo,
que
no
es
jurídicamente
vinculante
y
no
fue
firmado
por
China,
constataba
que
era
esencial «mantener
el
control
y
la
participación
humana
en
todas
las
acciones…
relativas
al
empleo
de
armas
nucleares».

Además,
en

el
acuerdo
se
añadió

que
las
capacidades
de
IA
en
el
ámbito
militar «deben
aplicarse
de
conformidad
con
el
derecho
nacional
e
internacional
aplicable.
Las
aplicaciones
de
IA
deben
ser
éticas
y
centradas
en
el
ser
humano».


El
no
de
China.

La
respuesta
de
China
es
un
síntoma
del
largo
camino
que
queda
por
recorrer
y
de
las
tensiones
geopolíticas
que
se
viven
en
la
actualidad.
Tampoco
hay
respuesta
de
Rusia,
que
debido
a
la
guerra
de
Ucrania
estaba
vetada
de
la
cumbre.
Sea
como
fuere,
el
rápido
uso
de
sistemas
militares
basados
​​en
IA
en
conflictos
recientes,
así
como
su
creciente
importancia
en
los
planes
de
futuro,
ha
subrayado
la
urgente
necesidad
de
evaluar
las
posibles
consecuencias
no
deseadas
del
mal
uso
de
esta
tecnología.

Un
ejemplo
de
ello
es
el
desarrollo
y
uso
no
regulados
de
drones
en
el
campo
de
batalla,
donde
la
única
limitación
real
es
el
miedo
a
errores
algorítmicos,
como
los
que
resultan
en
fuego
amigo.


Incentivos
a
vincularse.

Esta
es
otra
de
las
patas
a
tratar.
Los
países
directamente
involucrados
en
conflictos
tienen
pocos
incentivos
para
frenar
este
desarrollo,
como

se
muestra
en
la
guerra
entre
Rusia
y
Ucrania
,
donde
ambos
bandos

están
aprovechando

cada
vez
más

los
drones
mejorados
con
IA

para
acciones
con

una
mínima
supervisión
humana
.

Según

explicó
en
la
cumbre
Kateryna
Bondar
,
experta
en
tecnologías
avanzadas
del
Centro
de
Estudios
Estratégicos
e
Internacionales,
“estos
países
son
reacios
a
imponer
restricciones,
ya
que
consideran
que
la
IA
militar
es
una
ventaja
crítica.
En
cuestiones
de
supervivencia
nacional,
ninguna
declaración
o
acuerdo,
por
bien
intencionado
que
sea,
impedirá
que
un
país
haga
lo
que
sea
necesario
para
garantizar
su
propia
seguridad”,
aseguraba.


La
tecnología
siempre
por
delante.

Otro
de
los
problemas
que
se
trató
en
la
cumbre
fue

la
problemática
de
poner
leyes
a
la
IA
.
A
este
respecto,
Manoj
Harjani,
coordinador
del
Programa
de
Transformaciones
Militares
en
la
Escuela
de
Estudios
Internacionales,

comentó
que

“es
un
juego
constante
de
ponerse
al
día,
en
el
que
la
tecnología
evoluciona
a
un
ritmo
mucho
más
rápido
que
el
proceso
de
regulación
gubernamental,
que
a
menudo
avanza
lentamente”.


De
fondo:
otra
vez
China.

Si
bien
Estados
Unidos
ha
disfrutado
de
superioridad
en
tecnología
militar
desde
el
final
de
la
Guerra
Fría,
esta
ventaja
ya
no
lo
es
tanto
en
la
carrera
por
convertirse
en
el
líder
mundial
en
IA
y
tecnologías
de
machine
learning
que
podrían
revolucionar
la
guerra,
y
aquí

China
vuelve
a
aparecer
en
el
horizonte
.

De
hecho,
hay
datos
que
respaldan
su
posición
de
liderazgo.
Según

un
informe
publicado
en
agosto

por
el
Instituto
Australiano
de
Política
Estratégica,
China
ha
ampliado
su
liderazgo
como

la
nación
líder
en
investigación
del
mundo
,
copando
en
casi
el
90%,
de
las
64
categorías
examinadas
por
el
grupo
de
expertos,
incluyendo
análisis
avanzado
de
datos,
algoritmos
de
IA,
aprendizaje
automático
e
IA
adversaria.
A
ello
hay
que
añadir
que
empresas
chinas
como
Tencent
Holdings,
Alibaba
Group
Holdings
y
Huawei
Technologies
están
entre
las
10
principales
firmas
que
realizan
investigación
en
IA.


Conclusión.

La
cumbre
nunca
fue
vinculante,
ni
se
pretendía.
Fue
una
aproximación
a
modo
de
tablero
donde
cada
nación
movió
ficha
dejando
ver
parte
de
sus
cartas.
Los
expertos
sostienen
que,
a
pesar
de
las
escasas
posibilidades
de
alcanzar
un
acuerdo
internacional
vinculante
para
regular
la
IA
militar
a
corto
plazo,

tal
logro
debería
ser

en
el
futuro
“profundamente
importante,
si
es
posible”.

Como

afirmaba
Bondar
,
la
IA
es,
en
esencia,
un
producto
del
diseño
humano,
“un
software
que
se
puede
programar
para
cumplir
normas
y
reglamentos”.
El
problema
está
en
que
esas
normas
y
reglamentos
bien
podrían
traducirse
en
las
taras
y/o
venganzas
de
unos
y
otros.
De
nuestra
mano
está
lograr
alcanzar
un
consenso
para
minimizar
y
adelantarnos
a
cualquier
catástrofe
innecesaria. 

Imagen
|

włodi

En
Xataka
|

China
es
el
país
que
más
ha
aumentado
su
arsenal
nuclear.
Ahora
pide
contención
a
EEUU
y
sus
aliados

En
Xataka
|

China
recurre
a
la
energía
nuclear
para
estimular
su
economía.
Invertirá
28.000
millones
de
dólares
en
11
reactores