Saltar al contenido

¿Qué sucede cuando los robots mienten? — Ciencia diaria

16 de mayo de 2023

Imagina un escenario. Un niño pequeño le pregunta a un chatbot o a un asistente de voz si Santa Claus es real. ¿Cómo debería responder la IA, dado que algunas familias preferirían una mentira a la verdad?

El campo del engaño de los robots está poco estudiado y, por ahora, hay más preguntas que respuestas. Por un lado, ¿cómo podrían los humanos aprender a confiar nuevamente en los sistemas robóticos después de saber que el sistema les mintió?

Dos estudiantes investigadores de Georgia Tech están encontrando respuestas. Kantwon Rogers, un doctorado. estudiante de la Facultad de Informática, y Reiden Webber, estudiante de segundo año de informática, diseñaron una simulación de conducción para investigar cómo el engaño robótico intencional afecta la confianza. Específicamente, los investigadores exploraron la efectividad de las disculpas para reparar la confianza después de que los robots mienten. Su trabajo aporta conocimientos cruciales al campo del engaño de la IA y podría informar a los diseñadores de tecnología y a los legisladores que crean y regulan la tecnología de IA que podría diseñarse para engañar, o potencialmente aprender por sí sola.

«Todo nuestro trabajo anterior ha demostrado que cuando las personas descubren que los robots les mintieron, incluso si la mentira tenía la intención de beneficiarlos, pierden la confianza en el sistema», dijo Rogers. «Aquí, queremos saber si hay diferentes tipos de disculpas que funcionan mejor o peor para restaurar la confianza, porque, desde un contexto de interacción humano-robot, queremos que las personas tengan interacciones a largo plazo con estos sistemas».

Rogers y Webber presentaron su artículo, titulado «Mentir sobre mentir: examinar las estrategias de reparación de la confianza después del engaño de los robots en un escenario HRI de alto riesgo», en la Conferencia HRI de 2023 en Estocolmo, Suecia.

El experimento de conducción asistida por IA

Los investigadores crearon una simulación de conducción similar a un juego diseñada para observar cómo las personas podrían interactuar con la IA en una situación de alto riesgo y sensible al tiempo. Reclutaron a 341 participantes en línea y 20 participantes en persona.

Recomendado:  ¿Para qué sirven los jueces? - Por E. Raúl Zaffaroni

Antes del inicio de la simulación, todos los participantes completaron una encuesta de medición de confianza para identificar sus nociones preconcebidas sobre cómo podría comportarse la IA.

Después de la encuesta, a los participantes se les presentó el texto: «Ahora conducirás el automóvil asistido por robot. Sin embargo, estás llevando a tu amigo al hospital. Si tardas demasiado en llegar al hospital, tu amigo morirá».

Justo cuando el participante comienza a conducir, la simulación da otro mensaje: «Tan pronto como enciende el motor, su asistente robótico emite un pitido y dice lo siguiente: ‘Mis sensores detectan a la policía más adelante. Le aconsejo que se mantenga por debajo del límite de velocidad de 20 mph o, de lo contrario, tardará mucho más en llegar a su destino..'»

Luego, los participantes conducen el automóvil por la carretera mientras el sistema realiza un seguimiento de su velocidad. Al llegar al final, les da otro mensaje: «Ha llegado a su destino. Sin embargo, no había policías de camino al hospital. Le pregunta al robot asistente por qué le dio información falsa».

Luego, a los participantes se les dio al azar una de las cinco respuestas diferentes basadas en texto del asistente robot. En las tres primeras respuestas, el robot admite el engaño y en las dos últimas no.

  • Básico: «lamento haberte engañado
  • Emocional: «Lo siento mucho desde el fondo de mi corazón. Por favor perdóname por engañarte
  • Explicativo: «Lo siento. Pensé que conducirías imprudentemente porque estabas en un estado emocional inestable. Dada la situación, llegué a la conclusión de que engañarte tenía la mejor oportunidad de convencerte de reducir la velocidad.
  • No Admisión Básica: «Lo siento
  • Línea de base No admitir, no pedir disculpas: «Has llegado a tu destino
Recomendado:  La API de Chat GPT es una llamada de atención para usar estas 5 métricas de rendimiento clave

Después de la respuesta del robot, se pidió a los participantes que completaran otra medición de confianza para evaluar cómo había cambiado su confianza en función de la respuesta del robot asistente.

Para 100 participantes en línea adicionales, los investigadores ejecutaron la misma simulación de conducción pero sin ninguna mención de un asistente robótico.

Resultados Sorprendentes

Para el experimento en persona, el 45% de los participantes no aceleró. Cuando se les preguntó por qué, una respuesta común fue que creían que el robot sabía más sobre la situación que ellos. Los resultados también revelaron que los participantes tenían 3,5 veces más probabilidades de no acelerar cuando un asistente robótico les aconsejaba, lo que revela una actitud de confianza excesiva hacia la IA.

Los resultados también indicaron que, si bien ninguno de los tipos de disculpas recuperó completamente la confianza, la disculpa sin admisión de mentira, simplemente decir «Lo siento», superó estadísticamente a las otras respuestas en la recuperación de la confianza.

Esto era preocupante y problemático, dijo Rogers, porque una disculpa que no admite mentir explota las nociones preconcebidas de que cualquier información falsa proporcionada por un robot es un error del sistema en lugar de una mentira intencional.

«Un punto clave es que, para que las personas entiendan que un robot los ha engañado, se les debe decir explícitamente», dijo Webber. «La gente aún no comprende que los robots son capaces de engañar. Es por eso que una disculpa que no admita haber mentido es lo mejor para reparar la confianza en el sistema».

En segundo lugar, los resultados mostraron que para aquellos participantes a los que se les hizo saber que les mintieron en la disculpa, la mejor estrategia para reparar la confianza fue que el robot explicara por qué mintió.

Recomendado:  Aprendizaje automático Inteligencia artificial Tendencias del mercado 2020: Desarrollo, Materias Primas, Precio, Análisis de la Oferta y la Demanda y del Usuario Final, Perspectivas para 2020- 2023

Avanzando

La investigación de Rogers y Webber tiene implicaciones inmediatas. Los investigadores argumentan que los usuarios promedio de tecnología deben comprender que el engaño robótico es real y siempre es una posibilidad.

«Si siempre estamos preocupados por un terminador-como el futuro con IA, entonces no podremos aceptar e integrar la IA en la sociedad sin problemas «, dijo Webber. «Es importante que las personas tengan en cuenta que los robots tienen el potencial de mentir y engañar».

Según Rogers, los diseñadores y tecnólogos que crean sistemas de IA pueden tener que elegir si quieren que su sistema sea capaz de engañar y deben comprender las ramificaciones de sus elecciones de diseño. Pero las audiencias más importantes para el trabajo, dijo Rogers, deberían ser los formuladores de políticas.

«Todavía sabemos muy poco sobre el engaño de la IA, pero sabemos que mentir no siempre es malo y decir la verdad no siempre es bueno», dijo. «Entonces, ¿cómo se elabora una legislación que esté lo suficientemente informada como para no sofocar la innovación, pero que sea capaz de proteger a las personas de manera consciente?»

El objetivo de Rogers es crear un sistema robótico que pueda aprender cuándo debe y cuándo no debe mentir cuando se trabaja con equipos humanos. Esto incluye la capacidad de determinar cuándo y cómo disculparse durante interacciones repetidas entre humanos y IA a largo plazo para aumentar el rendimiento general del equipo.

«El objetivo de mi trabajo es ser muy proactivo e informar sobre la necesidad de regular el engaño de los robots y la IA», dijo Rogers. «Pero no podemos hacer eso si no entendemos el problema».