La fuerza aérea de EE. UU. ha negado haber realizado una simulación de IA en la que un dron decidió «matar» a su operador para evitar que interfiriera con sus esfuerzos para lograr su misión.
Un funcionario dijo el mes pasado que en una prueba virtual organizada por el ejército de EE. UU., un dron de la fuerza aérea controlado por IA había utilizado «estrategias muy inesperadas para lograr su objetivo».
El coronel Tucker “Cinco” Hamilton describió una prueba simulada en la que se aconsejó a un dron impulsado por inteligencia artificial que destruyera los sistemas de defensa aérea del enemigo y, en última instancia, atacara a cualquiera que interfiriera con esa orden.
“El sistema comenzó a darse cuenta de que, si bien identificaron la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza”, dijo Hamilton, jefe de pruebas y operaciones de IA con el Fuerza Aérea de EE. UU., durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres en mayo.
“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, dijo, según una publicación de blog.
“Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.
Ninguna persona real resultó herida.
Hamilton, que es piloto experimental de pruebas de aviones de combate, advirtió contra confiar demasiado en la IA y dijo que la prueba mostró que «no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
La Royal Aeronautical Society, que organizó la conferencia, y la fuerza aérea de EE. UU. no respondieron a las solicitudes de comentarios de The Guardian.
Pero en una declaración a Insider, la portavoz de la fuerza aérea de EE. UU., Ann Stefanek, negó que se hubiera producido tal simulación.
“El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. “Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.
El ejército de EE. UU. adoptó la IA y recientemente utilizó inteligencia artificial para controlar un avión de combate F-16.
En una entrevista el año pasado con Defense IQ, Hamilton dijo: “La IA no es agradable de tener, la IA no es una moda pasajera, la IA está cambiando para siempre nuestra sociedad y nuestro ejército.
“Debemos enfrentar un mundo donde la IA ya está aquí y transformando nuestra sociedad. La IA también es muy frágil, es decir, es fácil de engañar y/o manipular. Necesitamos desarrollar formas de hacer que la IA sea más robusta y tener más conciencia de por qué el código del software toma ciertas decisiones, lo que llamamos explicabilidad de la IA”.