TEl convoy de seguridad se dirigió al bulevar Imam Khomeini de Teherán alrededor de las 3:30 p. m. del 27 de noviembre de 2020. El VIP era el científico iraní Mohsen Fakhrizadeh, ampliamente considerado como el jefe del programa secreto de armas nucleares de Irán. Conducía a su esposa a su propiedad en el campo, flanqueado por guardaespaldas en otros vehículos. Estaban cerca de casa cuando el asesino atacó.
Sonaron varios disparos que se estrellaron contra el Nissan negro de Fakhrizadeh y lo detuvieron. El arma disparó nuevamente, alcanzando al científico en el hombro y obligándolo a salir del vehículo. Con Fakhrizadeh al descubierto, el asesino entregó los disparos fatales, dejando a la esposa de Fakhrizadeh ilesa en el asiento del pasajero.
Entonces sucedió algo extraño. Una camioneta estacionada al costado de la carretera explotó sin motivo aparente. Después de examinar los restos, las fuerzas de seguridad iraníes encontraron los restos de una ametralladora robótica, con múltiples cámaras y un mecanismo controlado por computadora para apretar el gatillo. ¿Había muerto Fakhrizadeh a manos de un robot?
Informe posterior por parte del New York Times reveló que la ametralladora robot no era completamente autónoma. En cambio, un asesino a unos 1.000 km de distancia recibió imágenes del camión y decidió cuándo apretar el gatillo. Pero el software de inteligencia artificial compensó los movimientos del objetivo en los 1,6 segundos que tomó para que las imágenes se transmitieran vía satélite desde el camión al asesino, y la señal para apretar el gatillo regresara.
Es el material de las pesadillas, y las imágenes de la guerra en Ucrania no hacen nada para disipar los temores. Los drones son omnipresentes en el conflicto, desde el Bayraktar TB2 de fabricación turca que se usó para atacar a las fuerzas rusas de ocupación en la Isla de las Serpientes, hasta los drones marítimos que atacaron a los barcos rusos en el puerto de Sebastopol y los cuadricópteros modificados que lanzaron granadas sobre la infantería desprevenida y otros objetivos. Y si las imágenes en Internet sirven de algo, las cosas podrían empeorar.
en un video publicado en Weibo, un contratista de defensa chino parece exhibir un dron que coloca un perro robot en el suelo. El robot cobra vida. En su espalda hay una ametralladora. En otro video, un perro robot disponible comercialmente parece haber sido modificado por un individuo ruso para disparar un armacon el retroceso levantando el robot sobre sus patas traseras.
En respuesta a estos videos alarmantes, en octubre Boston Dynamics y otras cinco compañías de robótica emitieron una carta abierta que decía: “Creemos que agregar armas a los robots que son operados de forma remota o autónoma, ampliamente disponibles para el público y capaces de navegar a lugares previamente inaccesibles lugares donde la gente vive y trabaja, plantea nuevos riesgos de daños y graves problemas éticos. Las aplicaciones armadas de estos robots recientemente capacitados también dañarán la confianza pública en la tecnología de manera que dañarán los tremendos beneficios que traerán a la sociedad”.
En un comunicado a la Observador, la compañía explicó además: “Hemos visto un aumento en los esfuerzos improvisados por parte de personas que intentan armar robots disponibles comercialmente, y esta carta indica que la industria de robótica móvil avanzada más amplia se opone a la armamentización y está comprometida a evitarla. Tenemos la esperanza de que la fuerza de nuestros números anime a los legisladores a involucrarse en este tema para ayudarnos a promover el uso seguro de los robots móviles y prohibir su uso indebido”.
Sin embargo, Boston Dynamics es propiedad efectiva de Hyundai Motor Group, que en junio de 2021 compró una participación mayoritaria en la empresa, y otra parte de ese grupo, Hyundai Rotem, no tiene esos reparos. En abril de este año, Hyundai Rotem anunció una colaboración con otra firma de Corea del Sur, Rainbow Robotics, para desarrollar robots de defensa de múltiples patas. Una ilustración promocional muestra un perro robot con una pistola adjunta.
Además, el analista de defensa e historiador militar Tim Ripley se pregunta qué significa en la práctica el compromiso de Boston Dynamic. Incluso si no ata armas a estos robots, dice, todavía pueden ser instrumentos de guerra.
“Si el robot es un dron de vigilancia, encuentra un objetivo, le disparas un proyectil de artillería y mata a la gente, entonces ese dron es una parte tan importante de un sistema de armas como tener un misil en el dron. Todavía es parte de la cadena de muerte”, dice.
Señala que la vigilancia con drones ha jugado un papel crucial en la guerra de Ucrania, utilizada en ambos bandos para rastrear los movimientos del enemigo y encontrar objetivos para los bombardeos de artillería.
WCuando se trata de hardware militar computarizado, siempre hay dos partes del sistema: el hardware en sí y el software de control. Si bien los robots más allá de los drones aún no son una característica común en el campo de batalla, cada vez se utiliza más software inteligente.
“Hay toda una gama de autonomía que ya está integrada en nuestros sistemas. Se ha considerado necesario porque permite a los humanos tomar decisiones rápidas”, dice Mike Martin, investigador principal de estudios de guerra en el King’s College de Londres.
Cita el ejemplo de un helicóptero Apache escaneando el paisaje en busca de señales de calor. El software integrado los identificará rápidamente como objetivos potenciales. Incluso puede hacer una recomendación sobre cómo priorizar esos objetivos y luego presentar esa información al piloto para decidir qué hacer a continuación.
Si nos guiamos por las convenciones de defensa, claramente hay un apetito en el ejército por más sistemas de este tipo, especialmente si se pueden hermanar con robots. La firma estadounidense Ghost Robotics fabrica perros robot, o robots cuadrúpedos, como los llama la industria. Además de ser promocionados como dispositivos de vigilancia para ayudar a las patrullas a reconocer áreas potencialmente hostiles, también se los sugiere como máquinas de matar.
En la conferencia anual 2021 de la Asociación del Ejército de los Estados Unidos en octubre pasado, Ghost Robotics mostró un cuadrúpedo con un arma atada a la parte superior. El arma es fabricada por otra compañía estadounidense, Sword Defense Systems, y se llama rifle no tripulado de propósito especial (Spur). En el sitio web de Sword Defense Systems, se dice que Spur es «el futuro de los sistemas de armas no tripulados, y ese futuro es ahora».
En el Reino Unido, la Royal Navy está actualmente probando un submarino autónomo llamado Manta. Se espera que el vehículo no tripulado de nueve metros de largo lleve sonar, cámaras, comunicaciones y dispositivos de interferencia. Mientras tanto, las tropas del Reino Unido se encuentran actualmente en el desierto de Mojave participando en juegos de guerra con sus homólogos estadounidenses. Conocido como Proyecto Convergencia, un enfoque del ejercicio es el uso de drones, otros vehículos robóticos e inteligencia artificial para “ayudar a que el ejército británico sea más letal en el campo de batalla”.
Sin embargo, incluso en los sistemas actuales más sofisticados, los humanos siempre están involucrados en la toma de decisiones. Hay dos niveles de participación: un sistema «en el circuito» significa que las computadoras seleccionan posibles objetivos y se los presentan a un operador humano que luego decide qué hacer. Sin embargo, con un sistema «en el circuito», la computadora le dice al operador humano qué objetivos recomienda eliminar primero. El ser humano siempre puede anular a la computadora, pero la máquina es mucho más activa en la toma de decisiones. El rubícón a cruzar es donde el sistema está totalmente automatizado, eligiendo y persiguiendo sus propios objetivos sin interferencia humana.
“Esperemos que nunca lleguemos a esa etapa”, dice Martin. “Si entregas la toma de decisiones a los sistemas autónomos, pierdes el control, ¿y quién dice que el sistema no decidirá que lo mejor para la prosecución de la guerra no es la remoción de su propio liderazgo?” Es un escenario de pesadilla que evoca imágenes de la película. El terminadoren el que robots con inteligencia artificial deciden librar una guerra para eliminar a la humanidad.
Feras Batarseh es profesor asociado en Virginia Tech University y coautor de Garantía de IA: hacia una IA confiable, explicable, segura y ética (Elsevier). Si bien cree que los sistemas completamente autónomos están muy lejos, advierte que la inteligencia artificial está alcanzando un nivel peligroso de desarrollo.
“La tecnología está en un lugar en el que no es lo suficientemente inteligente como para que se confíe plenamente en ella, pero no es tan tonta como para que un humano sepa automáticamente que debe mantener el control”, dice.
En otras palabras, un soldado que actualmente deposita su confianza en un sistema de IA puede estar poniéndose en mayor peligro porque la generación actual de IA falla cuando se encuentra con situaciones que no se le ha enseñado explícitamente a interpretar. Los investigadores se refieren a situaciones o eventos inesperados como atípicos, y la guerra aumenta enormemente el número de ellos.
“En la guerra, suceden cosas inesperadas todo el tiempo. Los valores atípicos son el nombre del juego y sabemos que las IA actuales no hacen un buen trabajo con los valores atípicos”, dice Batarseh.
Incluso si solucionamos este problema, todavía hay enormes problemas éticos con los que lidiar. Por ejemplo, ¿cómo decide si una IA tomó la decisión correcta cuando tomó la decisión de matar? Es similar al llamado problema del trolebús que actualmente persigue el desarrollo de vehículos automatizados. Viene en muchas formas, pero esencialmente se reduce a preguntar si es éticamente correcto dejar que se produzca un accidente inminente en el que podría morir un número de personas, o tomar alguna medida que salve a esas personas pero corre el riesgo de matar a un número menor de otras personas. gente. Tales preguntas adquieren un nivel completamente nuevo cuando el sistema involucrado está realmente programado para matar.
Sorin Matei de la Universidad de Purdue, Indiana, cree que un paso hacia una solución sería programar a cada guerrero de IA con un sentido de su propia vulnerabilidad. El robot entonces valoraría su existencia continua y podría extrapolar eso a los seres humanos. Matei incluso sugiere que esto podría conducir a una prosecución más humana de la guerra.
“Podríamos programarlos para que fueran tan sensibles como la Convención de Ginebra quisiera que fueran los actores humanos”, dice. “Para confiar en las IA, debemos darles algo que tengan en juego”.
Pero incluso el robot asesino más éticamente programado, o el robot civil, es vulnerable a una cosa: la piratería. “Lo que pasa con el desarrollo de sistemas de armas es que desarrollarás un sistema de armas y alguien al mismo tiempo intentará contrarrestarlo”, dice Ripley.
Con eso en mente, una fuerza de guerreros robot pirateables sería el objetivo más obvio para un ataque cibernético por parte de un enemigo, lo que podría ponerlos en contra de sus creadores y borrar toda ética de sus memorias de microchip. Las consecuencias podrían ser horrendas. Sin embargo, todavía parece que los fabricantes y los contratistas de defensa están presionando con fuerza en esta dirección.
Para lograr un control significativo de armas tan terribles, sugiere Martin, debemos estar atentos a la historia militar.
“Si observa otros sistemas de armas a los que los humanos realmente tienen miedo, digamos nucleares, químicos, biológicos, la razón por la que terminamos con acuerdos de control de armas en esos no es porque detuvimos el desarrollo de ellos desde el principio, sino porque el su desarrollo se volvió tan aterrador durante la carrera armamentista que todo el mundo dijo, está bien, vamos a tener una conversación sobre esto”, dice Martin.
Hasta que llegue ese día, parece seguro que se avecinan algunos tiempos preocupantes, ya que los drones, los robots y otras armas no tripuladas encuentran cada vez más su camino hacia los campos de batalla del mundo.