Los robots pueden entregar comida en un campus universitario y hacer un hoyo en uno en el campo de golf, pero incluso el robot más sofisticado no puede realizar interacciones sociales básicas que son críticas para la vida humana cotidiana.
Los investigadores del MIT ahora han incorporado ciertas interacciones sociales en un marco para la robótica, permitiendo que las máquinas comprendan lo que significa ayudarse u obstaculizarse entre sí, y aprender a realizar estos comportamientos sociales por sí mismas. En un entorno simulado, un robot observa a su compañero, adivina qué tarea quiere realizar y luego ayuda u obstaculiza a este otro robot en función de sus propios objetivos.
Los investigadores también demostraron que su modelo crea interacciones sociales realistas y predecibles. Cuando mostraron videos de estos robots simulados interactuando entre sí a los humanos, los espectadores humanos estuvieron de acuerdo en su mayoría con el modelo sobre qué tipo de comportamiento social estaba ocurriendo.
Permitir que los robots exhiban habilidades sociales podría conducir a interacciones humano-robot más fluidas y positivas. Por ejemplo, un robot en una instalación de vida asistida podría usar estas capacidades para ayudar a crear un entorno más solidario para las personas mayores. El nuevo modelo también puede permitir a los científicos medir las interacciones sociales cuantitativamente, lo que podría ayudar a los psicólogos a estudiar el autismo o analizar los efectos de los antidepresivos.
«Los robots vivirán en nuestro mundo lo suficientemente pronto y realmente necesitan aprender a comunicarse con nosotros en términos humanos. Necesitan comprender cuándo es el momento de ayudar y cuándo es el momento de ver qué pueden hacer para evitar que algo suceda. Este es un trabajo muy temprano y apenas estamos rascando la superficie, pero siento que este es el primer intento muy serio de comprender lo que significa que los humanos y las máquinas interactúen socialmente «, dice Boris Katz, científico investigador principal y director del Grupo InfoLab en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y miembro del Centro de Cerebros, Mentes y Máquinas (CBMM).
Junto a Katz en el artículo se encuentran el coautor principal Ravi Tejwani, asistente de investigación de CSAIL; el coautor principal Yen-Ling Kuo, estudiante de doctorado de CSAIL; Tianmin Shu, postdoctorado en el Departamento de Ciencias Cognitivas y Cerebrales; y el autor principal Andrei Barbu, científico investigador de CSAIL y CBMM. La investigación se presentará en la Conferencia sobre aprendizaje de robots en noviembre.
Una simulación social
Para estudiar las interacciones sociales, los investigadores crearon un entorno simulado donde los robots persiguen objetivos físicos y sociales mientras se mueven alrededor de una cuadrícula bidimensional.
Un objetivo físico se relaciona con el medio ambiente. Por ejemplo, el objetivo físico de un robot podría ser navegar hasta un árbol en un punto determinado de la cuadrícula. Un objetivo social implica adivinar qué está tratando de hacer otro robot y luego actuar en función de esa estimación, como ayudar a otro robot a regar el árbol.
Los investigadores utilizan su modelo para especificar cuáles son los objetivos físicos de un robot, cuáles son sus objetivos sociales y cuánto énfasis debe poner en uno sobre el otro. El robot es recompensado por las acciones que realiza que lo acercan más a lograr sus objetivos. Si un robot está tratando de ayudar a su compañero, ajusta su recompensa para que coincida con la del otro robot; si está tratando de obstaculizar, ajusta su recompensa para que sea lo contrario. El planificador, un algoritmo que decide qué acciones debe realizar el robot, utiliza esta recompensa que se actualiza continuamente para guiar al robot a llevar a cabo una combinación de objetivos físicos y sociales.
«Hemos abierto un nuevo marco matemático para modelar la interacción social entre dos agentes. Si eres un robot y quieres ir a la ubicación X, y yo soy otro robot y veo que estás intentando ir a la ubicación X , Puedo cooperar ayudándote a llegar más rápido a la ubicación X. Eso podría significar mover X más cerca de ti, encontrar otro X mejor o tomar cualquier acción que tuvieras que tomar en X. Nuestra formulación permite que el plan descubra el «cómo»; especificamos el ‘qué’ en términos de lo que significan matemáticamente las interacciones sociales «, dice Tejwani.
Combinar los objetivos físicos y sociales de un robot es importante para crear interacciones realistas, ya que los humanos que se ayudan entre sí tienen límites en cuanto a lo lejos que pueden llegar. Por ejemplo, una persona racional probablemente no le entregaría la billetera a un extraño, dice Barbu.
Los investigadores utilizaron este marco matemático para definir tres tipos de robots. Un robot de nivel 0 solo tiene objetivos físicos y no puede razonar socialmente. Un robot de nivel 1 tiene objetivos físicos y sociales, pero asume que todos los demás robots solo tienen objetivos físicos. Los robots de nivel 1 pueden realizar acciones basadas en los objetivos físicos de otros robots, como ayudar y obstaculizar. Un robot de nivel 2 asume que otros robots tienen objetivos sociales y físicos; estos robots pueden realizar acciones más sofisticadas, como unirse para ayudar juntos.
Evaluando el modelo
Para ver cómo se compara su modelo con las perspectivas humanas sobre las interacciones sociales, crearon 98 escenarios diferentes con robots en los niveles 0, 1 y 2. Doce humanos vieron 196 clips de video de los robots interactuando y luego se les pidió que estimaran el nivel físico y social. objetivos de esos robots.
En la mayoría de los casos, su modelo estaba de acuerdo con lo que pensaban los humanos sobre las interacciones sociales que estaban ocurriendo en cada cuadro.
«Tenemos este interés a largo plazo, tanto para construir modelos computacionales para robots como para profundizar en los aspectos humanos de esto. Queremos descubrir qué características de estos videos están usando los humanos para comprender las interacciones sociales. ¿Podemos hacer ¿Una prueba objetiva de tu capacidad para reconocer las interacciones sociales? Tal vez haya una manera de enseñar a las personas a reconocer estas interacciones sociales y mejorar sus habilidades. Estamos muy lejos de esto, pero el mero hecho de poder medir las interacciones sociales de manera efectiva es un gran un paso adelante «, dice Barbu.
Hacia una mayor sofisticación
Los investigadores están trabajando en el desarrollo de un sistema con agentes 3D en un entorno que permita muchos más tipos de interacciones, como la manipulación de objetos domésticos. También planean modificar su modelo para incluir entornos donde las acciones pueden fallar.
Los investigadores también quieren incorporar un planificador de robots basado en redes neuronales en el modelo, que aprende de la experiencia y funciona más rápido. Finalmente, esperan realizar un experimento para recopilar datos sobre las funciones que usan los humanos para determinar si dos robots están participando en una interacción social.
«Con suerte, tendremos un punto de referencia que permita a todos los investigadores trabajar en estas interacciones sociales e inspirar los tipos de avances científicos y de ingeniería que hemos visto en otras áreas, como el reconocimiento de objetos y acciones», dice Barbu.
Esta investigación fue apoyada por el Center for Brains, Minds, and Machines, la National Science Foundation, la MIT CSAIL Systems that Learn Initiative, el MIT-IBM Watson AI Lab, el programa DARPA Artificial Social Intelligence for Successful Teams, la Fuerza Aérea de EE. UU. Research Laboratory, el Acelerador de Inteligencia Artificial de la Fuerza Aérea de EE. UU. Y la Oficina de Investigación Naval.