Los soldados no confían en los compañeros de batalla de los robots. ¿Puede el entrenamiento virtual arreglar eso?

Se podría pensar que las tropas estarían ansiosas por incorporar robots y autómatas a las operaciones, ya que los robots militares están destinados a salvar a los soldados, aviadores, etc., de los trabajos “aburridos, sucios y peligrosos” que los operadores deben realizar en los escenarios de combate. Pero una nueva encuesta de la Fuerza Aérea de los Estados Unidos Revista de Asuntos Indo-Pacíficos muestra que el personal militar de primera línea es en realidad más aprensivo que sus comandantes al respecto.

El documento, basado en una encuesta realizada a 800 cadetes oficiales y guardiamarinas de la Academia de las Fuerzas de Defensa de Australia, mostró que “una mayoría significativa no estaría dispuesta a desplegarse junto con sistemas de armas autónomas letales”, o LEYES, y que “la seguridad, la precisión y la fiabilidad percibidas del sistema autónomo y la posibilidad de reducir el daño a los civiles, las fuerzas aliadas y el personal de las ADF son los beneficios más persuasivos”, en contraposición con otros factores, como el ahorro de costos, etc.

Esto podría ser un problema para un Pentágono deseoso de comenzar a incorporar sistemas autónomos en los ejercicios y operaciones. Los líderes militares han estado impulsando nuevos conceptos de operación basados en el trabajo en equipo hombre-máquina durante años, con el objetivo de aumentar la capacidad de los soldados para transportar cosas, sentir su entorno y responder a las amenazas con la ayuda de robots terrestres, pequeños aviones teledirigidos tácticos e incluso robots armados.

Entonces, ¿cómo hacer que las tropas que tienen que luchar junto a los robots confíen en ellos? No es un nuevo dilema y algunos excelentes estudiosos se han dedicado a reconocerlo y definirlo. Pero un artículo recientemente publicado de la Escuela Naval de Postgrado ofrece una nueva mirada al problema desde la perspectiva de un operador.


Recomendado: ¿Qué es el Big data?.


El Mayor del Cuerpo de Marines Daniel Yurkovich presentó su trabajo, “Este es mi robot. Hay muchos como él, pero este es mío”, el lunes en la conferencia anual de la Asociación Nacional de la Industria de la Defensa. Yurkovich argumenta que “la incapacidad de (a) entender la inteligencia artificial (IA) y (b) entrenar diariamente, se agravará para crear una atmósfera de desconfianza en los sistemas valiosos que de otra manera podrían mejorar la letalidad de los Marines de Infantería”.

La clave para crear esa confianza podría ser permitir que los operadores ayuden a entrenar a las máquinas con IA que sirven a su lado, en lugar de simplemente entregar a un soldado, marine o aviador un robot y enviarlos juntos a la guerra. “La enseñanza y el desarrollo de agentes de IA en un entorno simulado por el usuario final indican que existe la posibilidad de una mayor confianza en el agente de IA por parte del usuario final cuando se le coloca como compañero de equipo” dentro de un equipo humano-máquina, escribió Yurkovich.

Este es un enfoque llamado aprendizaje interactivo de la máquina. Como el investigador de Microsoft Saleema Amershi y sus colegas lo describieron en este documento seminal de 2014, el aprendizaje mecánico interactivo es fundamentalmente diferente de un algoritmo que simplemente se entrena con datos y luego se deja suelto… con más datos.

El aprendizaje interactivo de la máquina no sólo lleva al diseñador del algoritmo sino también al usuario al proceso de diseño de las actualizaciones. Esto permite a los usuarios “examinar interactivamente el impacto de sus acciones y adaptar las entradas posteriores para obtener los comportamientos deseados… incluso los usuarios con poca o ninguna experiencia en aprendizaje automático pueden dirigir los comportamientos de aprendizaje automático a través de pruebas y errores de bajo costo o experimentación enfocada con entradas y salidas”.

Por supuesto, los operadores tienen bastante con dedicar las horas – a veces cientos de horas – para entrenar a los robots en incluso simples tareas del mundo real. Yurkovich recomienda entrenar primero el cerebro del robot en un entorno de juego virtual y luego transferir el cerebro al robot físico.

“A un marine de infantería se le da un robot con un dispositivo extraíble de inteligencia artificial (RAID) y una consola de juegos compatible”, escribió. “El RAID está precargado con una línea base de automatización que imita la línea base de los conocimientos adquiridos por los Marines en la Escuela de Infantería antes de llegar a su primer Batallón de Infantería. La consola de juego, capaz de establecer una conexión con el RAID y el LVC-TE, es utilizada por el infante de marina para entrenar interactivamente con su robot en un entorno virtual… Cuando llega el momento de un entrenamiento u operaciones en vivo, el infante de marina instala su RAID en su robot. Ahora, el robot en funcionamiento y el infante de marina se han convertido en un equipo en vivo con confianza y tendencias calibradas construidas dentro de un ambiente simulado. Al completar la tarea u operación en vivo”.

No es el único trabajo que se hace para crear confianza entre los operadores y los robots con los que van a ir a la batalla. Y el experimento de Yurkovich sobre el tema no fue concluyente. Pero dar a los operadores más experiencia en el diseño de los comportamientos que quieren en sus robots es probablemente mejor que darles algo que nunca han interactuado antes, como muestra el estudio de la Fuerza Aérea.

No es un problema lejano. El fin de semana, un científico nuclear iraní fue asesinado por lo que la agencia de noticias iraní Fars describió como una ametralladora a control remoto. ISIS ha desplegado famosos aviones teledirigidos en muchos de sus ataques y los soldados rusos han desplegado robots terrestres en Siria. No hay indicios de que ninguna de estas máquinas fuera completamente autónoma, pero la forma en que sus operadores las usaron sugiere que fue más una barrera técnica que ética.