La campaña para detenerlos es una alianza de 82 ONGs como Human Right Watch o Amnistía Internacional. La anfitriona del encuentro, María Pía Devoto y la investigadora del Conicet, Vanina Martínez, hablaron sobre ésta problemática.

Cómo detener el desarrollo de armas letales totalmente autónomas (LAWS) o “robots asesinos” es el tema convocante de un encuentro internacional que se desarrollará esta semana en Buenos Aires, con la participación de la Nobel de la Paz 1997 y una programadora que renunció a su trabajo en Google por sospechar de los propósitos del proyecto de inteligencia artificial (IA) en el que estaba trabajando.

Se trata de la segunda reunión global de la Campaña para Detener a los Robots Asesinos, una alianza de 82 ONGs entre las que se cuentan Human Right Watch y Amnistía Internacional, que se realizará desde el miércoles y hasta el viernes en el Centro Cultural de la Ciencia.

“Llamamos a nuestros países a que lideren las negociaciones internacionales para la prohibición de los ‘killer robots’ porque es completamente inaceptable que se delegue a una máquina la decisión de matar”, dijo a Télam la anfitriona del encuentro, María Pía Devoto.

La campaña está promoviendo la creación de un convenio específico para impedir el desarrollo de LAWS que todavía no existen, pero que “ya se podrían fabricar” con las “herramientas económicas y computacionales” disponibles, según la investigadora del Conicet Vanina Martínez.

“Estamos impulsando una prohibición preventiva similar a la que existe desde 1995 para las armas láser cegadoras, que se entendió iban a causar un daño excesivo”, agregó Devoto, quien dirige la Asociación para Políticas Públicas (APP), una de las organizaciones nacionales que integra la campaña.

Los robots asesinos son “sistemas de armas con capacidad de seleccionar y atacar objetivos sin un control humano significativo” y pueden no tener aspecto androide, dado que el software se puede implementar también en “un tanque, avión de caza o barco de guerra”.

Martínez aclaró que estos robots asesinos “no tiene nada que ver” con películas como “Terminator”.

“La premisa de la ciencia ficción es que las máquinas van a cobrar conciencia y actuar con sus propios objetivos, pero el problema no es ése -que nunca va a suceder-, sino que funcionarán con un software que no deja de ser hackeable y sujeto a errores de programación que al ser transmitidos al arma producirán un desastre”, dijo esta doctora en Ciencias de la Computación.

“Algunos apocalípticos plantean que los soldados robots no sienten hambre, sueño ni dolor; pero tampoco tienen espacio para la compasión o capacidad para hacer un análisis contextual de una realidad compleja y cambiante”, agregó Devoto

La campaña identifica como “precursores” a dispositivos como un robot fijo desarrollado por Corea del Sur que puede “identificar, rastrear y disparar a intrusos”; pero no al dron estadounidense que asesinó al general Qasem Soleimani, jefe de la Fuerza Quds del Cuerpo de la Guardia Revolucionaria Iraní, porque “hubo un operador humano, aunque haya estado a miles de kilómetros”, explicó.

Los peligros que plantean los killer robots son el traspaso de límites éticos y legales, pero también la reducción del umbral de inhibición para la guerra, el vacío de responsabilidad, la imprevisibilidad y el inicio de una nueva carrera armamentista.

La preocupación mundial se expresa en los pronunciamientos públicos de diferentes organismos y en la creación de un Grupo de Expertos Gubernamentales sobre LAWS dentro de la Convención sobre Ciertas Armas Convencionales de la ONU, en el marco del cual 30 países se pronunciaron por la prohibición, entre ellos la Argentina.

“El despliegue de tales sistemas es factible en años, no décadas”, advirtieron expertos encabezados por Stephen Hawking en una carta pública divulgada en 2015 que hoy tiene más de 4.500 firmas.

“Y hay mucho en juego: las LAWS se han descrito como la tercera revolución en la guerra, después de la pólvora y armas nucleares”, anotaron.

Tras pronosticar que “se convertirán en los Kalashnikov del mañana” dado que “a diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener”, advirtieron que una vez desarrolladas, “solo será cuestión de tiempo hasta que aparezcan en el mercado negro y en manos de terroristas, dictadores (…) o señores de la guerra que desean perpetrar la limpieza étnica”.

En un sentido parecido se expresaron dos años después más de 300 líderes del sector tecnológico, quienes urgieron a la ONU a “encontrar una forma de protegernos” de esta “Caja de Pandora”.

“La IA es software y, como hay código libre disponible para que cualquiera lo utilice para lo que quiera, estos desarrollos se pueden hacer sin grandes inversiones”, explicó Martínez.

El encuentro de tres días en Buenos Aires es abierto e incluirá charlas debate, talleres y reuniones; así como una intervención pública en Plaza de Mayo con la participación de “la robota María”.

“No estamos en contra de que exista cierta autonomía en las armas pero que siempre se mantenga el control humano significativo en funciones críticas”, concluyó Devoto.