Boston Dynamics
Los LAWS seleccionan y alcanzan letalmente
sus objetivos sin intervención humana: serán la tercera revolución en el
arte de la guerra
Sayonara, baby.
España no tendrá su propio robot asesino, su propio «Terminator», su
propia Arma Autónoma Letal, como se llama técnicamente. Porque, por
mucho que pueda sonar a ciencia ficción, el Gobierno ya tiene una
posición oficial al respecto: «Las Fuerzas Armadas españolas no disponen, ni tienen previsto desarrollar,
ningún sistema de arma letal totalmente autónomo o que esté basado en
la llamada Inteligencia Artificial». Y no, tampoco se «está financiado
ningún proyecto de investigación» en este campo.
Esto no es una película. Ya hay quien ha calificado los
Sistemas de Armas Autónomas Letales (LAWS, por sus siglas en inglés)
como la tercera revolución en el arte de la guerra, después de la
pólvora y las armas nucleares. El objetivo: crear robots que seleccionen y alcancen letalmente sus objetivos sin intervención humana alguna.
Todavía no se han desplegado, pero serían un escalón más en los sistemas con los que ya cuentan países como Estados Unidos, con el x47-B —un avión que puede aterrizar y despegar solo—; Corea del Sur con el Samsung SGR-1 —un robot que patrulla la frontera con Corea del Norte—; o Israel con
la «Cúpula de Hierro». Sin embargo, en estos casos la decisión de
disparar recae en una persona. Y ahí está la diferencia. En los LAWS la
decisión la toman los robots.
El Gobierno «comparte la preocupación» por el desarrollo de estas armas robóticas, según su respuesta del pasado mayo a una pregunta escrita en el Senado,
tanto porque puedan funcionar y matar autónomamente, como por sus
consecuencias en el respeto de los Derechos Humanos y del Derecho
Internacional Humanitario. «Se apoya la necesidad de establecer un marco jurídico general e internacional con
objeto de impedir una eventual carrera de armamentos o su posible
adquisición por actores no estatales», declaraba por escrito.
«Los Kalashnikovs del mañana»
La tecnología ha llegado a un punto en el que el despliegue de este tipo de sistemas sería posible dentro de pocos años. Ni siquiera habría que esperar décadas, según dice el científico Stuart Russell en Nature. Y según va pasando el tiempo, son más quienes piden que se prohíba su desarrollo, como desde la plataforma Stop Killer Robots, el Comité Internacional para el Control de Armas Robóticas (ICRAC) o Human Rights Watch. Stephen Hawking, Elon Musk, Steve Wozniak, Jaan Tallinn o Frank Wilczek, por su parte, son algunas de las 20.000 personalidades que han firmado una carta abierta
pidiendo su prohibición. «Las armas autónomas de hoy se convertirán en
los Kalashnikovs del mañana», dicen. Esto no es una película.
Para ellos, la pregunta clave es si la humanidad quiere involucrarse en una carrera mundial de armas basadas
en la Inteligencia Artificial (IA) o evitar que esta se inicie. «Si
alguna potencia militar sigue adelante con el desarrollo de armas de IA,
será prácticamente inevitable que esa carrera armamentística se
produzca».
Por su parte, quienes defienden el desarrollo de los LAWS,
destacan que aportarían una mayor protección; multiplicarían la fuerza
empleada; evitarían muertes innecesarias y minimizarían el tiempo de
reacción respecto al de los seres humanos. Además, un robot nunca actuará por pánico, venganza u odio racial, dicen. Pero como explicaban Cesáreo Gutiérrez y María José Cervell en la Revista del Instituto Español de Estudios Estratégicos,
esto no implica que las máquinas vayan a ser más objetivas en sus
acciones.
El ejemplo, decían los expertos, está en el vuelo 655 de Iran
Air que fue derribado por un buque de guerra estadounidense en 1988: el
sistema AEGIS con el que estaba dotado identificó un avión como un F-14
iraní. Pese a las dudas de la tripulación, finalmente se confió en la
máquina y murieron 290 civiles.
Gutiérrez y Cervell creen que son las «ventajas militares y el menor costo económico y político,
los factores que explican por qué son cuantiosos los recursos que
algunos Estados dedican a la investigación de las Armas Autónomas». Los
dos investigadores se muestran pesimistas, calificando de «poco
realista» esperar que los Estados vayan a renunciar a estos sistemas.
La
última Convención sobre Armas Convencionales (CCW) de la ONU, celebrada en abril, acabó sin conclusiones.
Mientras, desde Stop Killer Robots siguen albergando
esperanzas: «Tras dos años [de conversaciones], es el momento de
alcanzar un alcanzar un avance sustantivo». El próximo mes de noviembre
la ONU tendrá que decidir si inicia un proceso formal de negociación para establecer una nueva prohibición global. Esto no es una película.
Isabel Miranda
http://www.abc.es/
0 comentarios:
Publicar un comentario