Saltar al contenido

Estudio: AI hará que los factores humanos sean más, no menos, críticos en la guerra

8 de julio de 2022
jon lindsay

A veces escuchamos que la inteligencia artificial en el ejército significa que la IA asume los riesgos y lucha mientras los humanos dirigen desde una distancia segura. Suena tranquilizador, pero no es probable, dicen el profesor de ciberseguridad del Instituto de Tecnología de Georgia, Jon Lindsay, y el profesor de IA de la Universidad de Toronto, Avi Goldfarb:

Muchos legisladores asumen que los soldados humanos podrían ser reemplazados por sistemas automatizados, idealmente haciendo que los militares dependan menos del trabajo humano y sean más efectivos en el campo de batalla. Esto se llama la teoría de sustitución de la IA, pero Lindsay y Goldfarb afirman que la IA no debe verse como un sustituto, sino como un complemento de la estrategia humana existente.

“Las máquinas son buenas para la predicción, pero dependen de los datos y el juicio, y los problemas más difíciles en la guerra son la información y la estrategia”, dijo. [Jon Lindsay] dijo. “Las condiciones que hacen que la IA funcione en el comercio son las condiciones más difíciles de cumplir en un entorno militar debido a su imprevisibilidad”.

Instituto de Tecnología de Georgia«Los militares no pueden confiar en la IA para la estrategia o el juicio, sugiere un estudio» en Ciencia diaria (14 de junio de 2022) El documento es de acceso abierto.

Esa imprevisibilidad se llama la «niebla de la guerra». Como dice Lindsay, “Necesitas que el ser humano tome sentido y tome decisiones morales, éticas e intelectuales en una situación increíblemente confusa, tensa y aterradora”. Puede ser relevante, señalan Lindsay y Goldfarb, que en la guerra, los intensos esfuerzos del enemigo estarán dirigidos a manipular o alterar los datos, lo que hará que la intervención y el juicio humanos sean aún más necesarios. Por cierto. La ciencia ficción podría convertirse en un hecho científico si las fuerzas enemigas piratean la IA para que comience a proporcionar información fatalmente engañosa.

No están en contra del uso de IA en la guerra. Piensan que debería usarse en entornos estables y burocráticos “tarea por tarea”.

«Toda la emoción y el miedo son sobre robots asesinos y vehículos letales, pero el peor caso para la IA militar en la práctica serán los problemas clásicamente militaristas en los que realmente dependes de la creatividad y la interpretación», dijo Lindsay. “Pero lo que deberíamos estar analizando son los sistemas de personal, la administración, la logística y las reparaciones”.

Instituto de Tecnología de Georgia«Los militares no pueden confiar en la IA para la estrategia o el juicio, sugiere un estudio» en Ciencia diaria (14 de junio de 2022) El documento es de acceso abierto.

soldados usando un dron para explorar

Una pregunta crítica que plantean los dos analistas es: «¿Hay componentes del juicio que no se pueden automatizar?» A medida que la IA militar continúa desarrollándose, probablemente lo descubriremos lo suficientemente pronto, tal vez de la manera más difícil.


Recomendado: ¿Qué es el Big data?.


Aquí está su resumen, que es admirablemente fácil de leer:

Estudios recientes sobre inteligencia artificial (IA) y seguridad internacional se centran en las consecuencias políticas y éticas de reemplazar a los guerreros humanos por máquinas. Sin embargo, la IA no es un simple sustituto de la toma de decisiones humana. Los avances en el aprendizaje automático comercial que reducen los costos de la predicción estadística aumentan simultáneamente el valor de los datos (que permiten la predicción) y el juicio (que determina la importancia de la predicción). Pero estos complementos clave (datos de calidad y juicio claro) pueden no estar presentes, o presentes en el mismo grado, en el incierto y conflictivo negocio de la guerra. Esto tiene dos implicaciones estratégicas importantes. Primero, las organizaciones militares que adoptan la IA tenderán a volverse más complejas para adaptarse a los desafíos de los datos y el juicio en una variedad de tareas de toma de decisiones. En segundo lugar, los datos y el juicio tenderán a convertirse en objetivos atractivos en la competencia estratégica. Como resultado, es probable que los conflictos que involucran complementos de IA se desarrollen de manera muy diferente a lo que sugerirían las visiones de sustitución de IA. En lugar de guerras robóticas rápidas y cambios decisivos en el poder militar, el conflicto habilitado por IA probablemente implicará una incertidumbre significativa, fricciones organizacionales y controversias crónicas. Por lo tanto, una mayor dependencia militar de la IA hará que el elemento humano en la guerra sea aún más importante, no menos.

Avi Goldfarb, Jon R. Lindsay; Predicción y juicio: por qué la inteligencia artificial aumenta la importancia de los humanos en la guerra. Seguridad Internacional 2022; 46 (3): 7–50. doi: https://doi.org/10.1162/isec_a_00425


También puede leer estas publicaciones relacionadas con el combate de Robert J. Marks: DARPA ha programado combates aéreos de IA contra IA para la próxima semana. Robert J. Marks: Un torneo de todos contra todos seleccionará la IA que se enfrente a un piloto humano el jueves. Un torneo de combate aéreo de IA exitoso es emocionante, pero es solo un primer paso para permitir que tales luchadores se usen en combate. (agosto de 2020)

y

Después de la pelea de perros del jueves, está claro: DARPA acierta con la IA. En la pelea de perros del jueves entre AI y un piloto, AI ganó. Pero ¿qué significa eso? Al plantear preguntas relevantes, la estrategia general de IA de DARPA abarca con precisión tanto las capacidades como las limitaciones de la IA. (agosto de 2020)

Otras lecturas: ¿Por qué no podemos simplemente prohibir los robots asesinos? ¿Deberíamos desarrollarlos para uso militar? La respuesta no es bonita. Eso es si. (Robert J. Marcas) (febrero de 2019)