Los seres humanos esperan que la IA sea benevolente y digna de confianza. Un nuevo estudio revela que, al mismo tiempo, los humanos no están dispuestos a cooperar y comprometerse con las máquinas. Incluso los explotan.
Imagínese conduciendo por una carretera estrecha en un futuro cercano cuando, de repente, otro automóvil emerge de una curva más adelante. Es un automóvil autónomo sin pasajeros en el interior. ¿Avanzará y hará valer su derecho de paso, o cederá el paso para dejarlo pasar? En la actualidad, la mayoría de nosotros nos comportamos amablemente en situaciones que involucran a otros humanos. ¿Mostraremos esa misma amabilidad hacia los vehículos autónomos?
Utilizando métodos de la teoría de los juegos conductuales, un equipo internacional de investigadores de la LMU y la Universidad de Londres ha realizado estudios en línea a gran escala para ver si las personas se comportarían de manera tan cooperativa con los sistemas de inteligencia artificial (IA) como lo hacen con sus congéneres.
La cooperación mantiene unida a una sociedad. A menudo nos obliga a comprometernos con los demás y aceptar el riesgo de que nos defrauden. El tráfico es un buen ejemplo. Perdemos un poco de tiempo cuando dejamos que otras personas pasen frente a nosotros y nos sentimos indignados cuando otros no responden a nuestra amabilidad. ¿Haremos lo mismo con las máquinas?
Explotar la máquina sin culpa
El estudio que se publica en la revista iScience descubrió que, en el primer encuentro, las personas tienen el mismo nivel de confianza hacia la IA que hacia los humanos: la mayoría espera conocer a alguien que esté dispuesto a cooperar.
La diferencia viene después. Las personas están mucho menos dispuestas a corresponder con la IA y, en cambio, explotan su benevolencia para su propio beneficio. Volviendo al ejemplo del tráfico, un conductor humano cedería el paso a otro humano, pero no a un automóvil autónomo.
El estudio identifica esta falta de voluntad para comprometerse con las máquinas como un nuevo desafío para el futuro de las interacciones humano-IA.
«Ponemos a la gente en la piel de alguien que interactúa con un agente artificial por primera vez, como podría suceder en la carretera», explica el Dr. Jurgis Karpus, teórico de los juegos conductuales y filósofo de LMU Munich y primer autor de el estudio. «Modelamos diferentes tipos de encuentros sociales y encontramos un patrón consistente. La gente esperaba que los agentes artificiales cooperaran tanto como los demás humanos. Sin embargo, no devolvieron su benevolencia tanto y explotaron la IA más que los humanos».
Con perspectivas de la teoría de juegos, la ciencia cognitiva y la filosofía, los investigadores encontraron que la «explotación de algoritmos» es un fenómeno robusto. Replicaron sus hallazgos en nueve experimentos con casi 2.000 participantes humanos.
Cada experimento examina diferentes tipos de interacciones sociales y le permite al ser humano decidir si comprometerse y cooperar o actuar de manera egoísta. También se midieron las expectativas de los otros jugadores. En un juego muy conocido, The Prisoner’s Dilemma, la gente debe confiar en que los otros personajes no los defraudarán. Abrazaron el riesgo tanto con los humanos como con la IA, pero traicionaron la confianza de la IA con mucha más frecuencia para ganar más dinero.
«La cooperación se sustenta en una apuesta mutua: confío en que será amable conmigo y usted confía en que yo seré amable con usted. La mayor preocupación en nuestro campo es que la gente no confíe en las máquinas. ¡Pero demostramos que sí!» señala el profesor Bahador Bahrami, neurocientífico social de la LMU y uno de los investigadores principales del estudio. «Sin embargo, les parece bien que se apague la máquina, y esa es la gran diferencia. La gente ni siquiera se siente culpable cuando lo hace», añade.
La IA benévola puede ser contraproducente
La inteligencia artificial sesgada y poco ética ha aparecido en muchos titulares, desde el fiasco de los exámenes de 2020 en el Reino Unido hasta los sistemas judiciales, pero esta nueva investigación plantea una advertencia novedosa. La industria y los legisladores se esfuerzan por garantizar que la inteligencia artificial sea benevolente. Pero la benevolencia puede resultar contraproducente.
Si la gente piensa que la IA está programada para ser benévola con ellos, estarán menos tentados a cooperar. Es posible que algunos de los accidentes relacionados con vehículos autónomos ya sean ejemplos de la vida real: los conductores reconocen un vehículo autónomo en la carretera y esperan que ceda. Mientras tanto, el vehículo autónomo espera que se mantengan los compromisos normales entre los conductores.
«La explotación del algoritmo tiene más consecuencias en el futuro. Si los seres humanos se muestran reacios a permitir que un automóvil autónomo educado se incorpore desde una carretera lateral, ¿debería el automóvil autónomo ser menos educado y más agresivo para ser útil?» pregunta Jurgis Karpus.
«La IA benévola y de confianza es una palabra de moda que entusiasma a todo el mundo. Pero arreglar la IA no es toda la historia. Si nos damos cuenta de que el robot que tenemos delante será cooperativo pase lo que pase, lo usaremos para nuestro interés egoísta. «, dice la profesora Ophelia Deroy, filósofa y autora principal del estudio, que también trabaja con el Instituto de Investigación de la Paz de Noruega en Oslo sobre las implicaciones éticas de la integración de soldados robot autónomos junto con soldados humanos. «Los compromisos son el aceite que hace que la sociedad funcione. Para cada uno de nosotros, parece solo un pequeño acto de interés propio. Para la sociedad en su conjunto, podría tener repercusiones mucho mayores. Si nadie permite que los automóviles autónomos se unan al tráfico, crearán sus propios embotellamientos laterales y no facilitarán el transporte «.