martes, 11 de agosto de 2015

¿Serán las máquinas los soldados del futuro?

 
 
¿Serán las máquinas los soldados del futuro?
       

(Autor: BagoGames)
La posibilidad de que una nueva generación de armamento con capacidad suficiente para tomar decisiones sin la supervisión de un ser humano sustituyan a soldados de carne y hueso, ha puesto en alerta a la comunidad científica que ha expresado su preocupación ante las consecuencias del desarrollo de este tipo de máquinas.

Las razones que llevan a los gobiernos a invertir en programas de armas autónomas, popularmente conocidas como "killer robots" (robots asesinos), parecen claras si tenemos en cuenta que son mucho más baratas y que a diferencia de los soldados humanos no se cansan y no sufren la falta de alimentos ni las inclemencias meteorológicas. Además están libres de dudas morales y su condición de máquinas les hace imbatibles en cuanto a rapidez y precisión.

¿Pero que son exactamente este tipo de armas? Cuando escuchamos una denominación como "robot asesino" rápidamente nos vienen a la cabeza películas como "Terminator" en las que Hollywood planteaba un futuro "postapocalíptico" en el que los humanos se enfrentaban a androides que habían conseguido relegar de su posición dominante a nuestra especie.

Lejos todavía de las fantasías del cine, aunque no tanto en opinión de muchos científicos, el presente de las armas autónomas es más prosaico, reducido a drones o vehículos similares cargados de armas y con la suficiente información para prescindir del control de un ser humano. En general se harían cargo de cumplir misiones como la localización, identificación y eliminación de objetivos de manera autónoma.

Y es aquí donde se presenta un primer dilema: hasta que punto es ético delegar la decisión de una acción de guerra en una máquina sin capacidad para distinguir entre el bien y el mal, sobre todo si para el cumplimiento de su misión se ponen en peligro la vida de personas inocentes.

Además, y a diferencia del armamento nuclear, los "robots asesinos" no requieren del uso de materiales controlados por la comunidad internacional. Esta condición los hace potencialmente baratos y al alcance de la mayoría de ejércitos nacionales e incluso de milicias y grupos terroristas.

Otro problema radica en que el desarrollo de armas autónomas por un país conducirá irremediablemente a una carrera armamentística que tendría un final obvio: convertir este armamento en algo tan común y letal como los fusiles Kalashnikovs en nuestros días.

Pero no todos los expertos están de acuerdo con su prohibición. Evan Ackerman, miembro de IEEE, una asociación de profesionales dedicados al avance de la ciencia, se ha mostrado partidario del desarrollo de estas armas en un artículo de réplica a la carta del congreso de Buenos Aires.

Para Ackerman su prohibición no serviría de nada, por que, como ha pasado con otros campos de la ciencia, su desarrollo es imparable ya que, además de sus posibles aplicaciones bélicas, esta tecnología también está orientada al desarrollo de proyectos de tipo social, como sería el uso de drones en el reparto de mercancías.

Otra de las razones que aduce es que no se debe culpar a la tecnología de la incapacidad humana para encontrar usos que no representen un peligro real para la especie. Además, y según su opinión, si su desarrollo redunda en menos bajas de soldados de carne y hueso su fabricación estaría justificada. Como solución el científico estadounidense propone intentar hacerlas compatibles con la ética humana.

El primero en plantear la necesidad de unos código "morales" en los robots para garantizar la seguridad de las personas fue el escritor de ciencia ficción estadounidense Isaac Asimov que en su relato de 1942 "El círculo vicioso" formulaba las tres leyes de la robótica, que en esencia prohibían a las máquinas hacer daño a los seres humanos por acción o por omisión.

Más oscuro es el porvenir que dibujan las ideas del matemático húngaro, John Von Neumann, quien en la década de 1950 acuñó la expresión "singularidad" para referirse al momento inevitable en que la tecnología sea capaz de autoreplicarse y mejorarse a sí misma, lo que de hecho conduciría a las máquinas a prescindir de los seres humanos.

Como apunta Steve Wozniak, cofundador de Apple Computer y uno de los firmantes de la carta para pedir la prohibición de esas armas, en ese hipotético futuro "las máquinas nos cuidarían bien y nos tratarían como a sus mascotas".
 
Gerardo Domínguez
http://www.onemagazine.es 

0 comentarios:

Publicar un comentario

 

Tecnology Militar Copyright © 2011 - 2012 - |- Template created by Leit0s - |- Powered by tecnologamilitar