Hablar con un robot es ahora parte de la vida diaria de muchas familias, gracias a agentes conversacionales como Siri de Apple o Alexa de Amazon. Investigaciones recientes han demostrado que a los niños a menudo les encanta descubrir que pueden pedirle a Alexa que toque sus canciones favoritas o que llame a la abuela.
Pero, ¿pasar el rato con Alexa o Siri afecta la forma en que los niños se comunican con sus semejantes? Probablemente no, según un estudio reciente dirigido por la Universidad de Washington que encontró que los niños son sensibles al contexto cuando se trata de estas conversaciones.
El equipo hizo que un agente conversacional le enseñara a 22 niños de entre 5 y 10 años a usar la palabra «bungo» para pedirle que hablara más rápido. Los niños usaron fácilmente la palabra cuando un robot ralentizó su habla. Si bien la mayoría de los niños usaban bungo en las conversaciones con sus padres, se convirtió en una fuente de juego o una broma interna sobre actuar como un robot. Pero cuando un investigador hablaba lentamente con los niños, los niños rara vez usaban bungoy, a menudo, esperó pacientemente a que el investigador terminara de hablar antes de responder.
Los investigadores publicaron sus hallazgos en junio en la conferencia Interaction Design and Children de 2021.
«Teníamos curiosidad por saber si los niños estaban adquiriendo hábitos de conversación a partir de sus interacciones diarias con Alexa y otros agentes», dijo el autor principal Alexis Hiniker, profesor asistente de la Universidad de Washington en la Escuela de Información. «Mucha de la investigación existente analiza agentes diseñados para enseñar una habilidad en particular, como las matemáticas. Eso es algo diferente de los hábitos que un niño podría adquirir de manera incidental al conversar con una de estas cosas».
Los investigadores reclutaron a 22 familias del área de Seattle para participar en un estudio de cinco partes. Este proyecto se llevó a cabo antes de la pandemia de COVID-19, por lo que cada niño visitó un laboratorio con un padre y un investigador. Para la primera parte del estudio, los niños hablaron con un simple robot animado o cactus en la pantalla de una tableta que también mostraba el texto de la conversación.
En la parte de atrás, otro investigador que no estaba en la habitación le hizo preguntas a cada niño, que la aplicación tradujo en una voz sintética y reprodujo para el niño. El investigador escuchó las respuestas y reacciones del niño por el altavoz.
Al principio, cuando los niños hablaban con uno de los dos agentes conversacionales (el robot o el cactus), les decía: «Cuando hablo, a veces empiezo a hablar muy lentamente. Puedes decir ‘bungo’ para recordarme que habla rápido de nuevo «.
Después de unos minutos de charlar con un niño, la aplicación cambió a un modo en el que periódicamente ralentizaba el habla del agente hasta que el niño decía «bungo». Luego, el investigador presionó un botón para devolver inmediatamente el discurso del agente a la velocidad normal. Durante esta sesión, el agente le recordó al niño que usara bungo si es necesario. La conversación continuó hasta que el niño practicó el uso bungo al menos tres veces.
La mayoría de los niños, el 64%, se acordó de usar bungo la primera vez que el agente ralentizó su discurso, y todos aprendieron la rutina al final de esta sesión.
Luego, los niños fueron presentados al otro agente. Este agente también comenzó a hablar lentamente periódicamente después de una breve conversación a velocidad normal. Si bien el discurso del agente también volvió a la velocidad normal una vez que el niño dijo «bungo», este agente no les recordó que usaran esa palabra. Una vez que el niño dijo «bungo» cinco veces o dejó que el agente siguiera hablando lentamente durante cinco minutos, el investigador en la habitación terminó la conversación.
Al final de esta sesión, el 77% de los niños había utilizado con éxito bungo con este agente.
En este punto, el investigador de la sala se fue. Una vez a solas, el padre conversó con el niño y luego, como con el robot y el cactus, comenzó a hablar lentamente al azar. El padre no hizo ningún recordatorio sobre el uso de la palabra bungo.
Solo 19 padres realizaron esta parte del estudio. De los niños que completaron esta parte, el 68% utilizó bungo en conversación con sus padres. Muchos de ellos lo usaron con cariño. Algunos niños lo hicieron con entusiasmo, a menudo interrumpiendo a sus padres a mitad de la oración. Otros expresaron vacilación o frustración, preguntando a sus padres por qué actuaban como robots.
Cuando el investigador regresó, tuvieron una conversación similar con el niño: normal al principio, seguido de un habla más lenta. En esta situación, solo el 18% de los 22 niños bungo con el investigador. Ninguno de ellos comentó sobre la lentitud del habla del investigador, aunque algunos de ellos hicieron contacto visual con sus padres.
«Los niños mostraron una conciencia social realmente sofisticada en sus comportamientos de transferencia», dijo Hiniker. «Vieron la conversación con el segundo agente como un lugar donde era apropiado usar la palabra bungo. Con los padres, lo vieron como una oportunidad para unirse y jugar. Y luego, con el investigador, que era un extraño, en su lugar tomaron la ruta socialmente segura de usar la norma conversacional más tradicional de no interrumpir a alguien que está hablando contigo «.
Después de esta sesión en el laboratorio, los investigadores querían saber cómo bungo les iría «en la naturaleza», por lo que les pidieron a los padres que intentaran ralentizar su habla en casa durante las próximas 24 horas.
De los 20 padres que probaron esto en casa, 11 informaron que los niños continuaron usando bungo. Estos padres describieron las experiencias como divertidas, agradables y «como una broma interna». Para los niños que expresaron escepticismo en el laboratorio, muchos continuaron ese comportamiento en casa, pidiendo a sus padres que dejaran de actuar como robots o se negaran a responder.
«Hay una sensación muy profunda para los niños de que los robots no son personas, y no querían que esa línea fuera borrosa», dijo Hiniker. «Entonces, para los niños a quienes no les importaba llevar esta interacción a sus padres, se convirtió en algo nuevo para ellos. No era como si estuvieran comenzando a tratar a sus padres como un robot. Estaban jugando con ellos y conectando con alguien a quien amor.»
Aunque estos hallazgos sugieren que los niños tratarán a Siri de manera diferente a la forma en que tratan a las personas, aún es posible que las conversaciones con un agente puedan influir sutilmente en los hábitos de los niños, como usar un tipo particular de lenguaje o tono de conversación, cuando hablan con otras personas. gente, dijo Hiniker.
Pero el hecho de que muchos niños quisieran probar algo nuevo con sus padres sugiere que los diseñadores podrían crear experiencias compartidas como esta para ayudar a los niños a aprender cosas nuevas.
«Creo que hay una gran oportunidad aquí para desarrollar experiencias educativas para los agentes conversacionales que los niños pueden probar con sus padres. Hay tantas estrategias conversacionales que pueden ayudar a los niños a aprender, crecer y desarrollar relaciones interpersonales sólidas, como etiquetar sus sentimientos, usar Declaraciones de ‘yo’ o defender a otros «, dijo Hiniker. «Vimos que los niños estaban emocionados de practicar de manera lúdica una interacción conversacional con sus padres después de aprenderla de un dispositivo. Mi otra lección para los padres es que no se preocupen. Los padres conocen mejor a sus hijos y saben si este tipo de cosas dar forma al comportamiento de sus propios hijos. Pero después de realizar este estudio, tengo más confianza en que los niños harán un buen trabajo al diferenciar entre dispositivos y personas «.
Otros coautores de este artículo son Amelia Wang y Jonathan Tran, quienes completaron esta investigación como estudiantes universitarios de la Universidad de Washington con especialización en diseño e ingeniería centrados en el ser humano; Mingrui Zhang, estudiante de doctorado de la Universidad de Washington en iSchool; Jenny Radesky, profesora asistente de la Facultad de Medicina de la Universidad de Michigan; Kiley Sobel, investigadora senior de experiencia de usuario en Duolingo que anteriormente recibió un doctorado de la UW; y Sunsoo Ray Hong, profesor asistente de la Universidad George Mason. Esta investigación fue financiada por una beca de carrera temprana de la Fundación Jacobs.