Saltar al contenido

El robot le devolvió la sonrisa – ScienceDaily

18 de agosto de 2021

Si bien nuestras expresiones faciales juegan un papel muy importante en la construcción de confianza, la mayoría de los robots todavía lucen el rostro en blanco y estático de un jugador de póquer profesional. Con el uso cada vez mayor de robots en lugares donde los robots y los humanos necesitan trabajar en estrecha colaboración, desde hogares de ancianos hasta almacenes y fábricas, la necesidad de un robot más realista y con mayor capacidad de respuesta es cada vez más urgente.

Interesados ​​durante mucho tiempo en las interacciones entre robots y humanos, los investigadores del Laboratorio de Máquinas Creativas en Columbia Engineering han estado trabajando durante cinco años para crear EVA, un nuevo robot autónomo con un rostro suave y expresivo que responde para coincidir con las expresiones de los humanos cercanos. La investigación se presentará en la conferencia ICRA el 30 de mayo de 2021 y los planos de los robots son de código abierto en Hardware-X (abril de 2021).

«La idea de EVA tomó forma hace unos años, cuando mis estudiantes y yo comenzamos a notar que los robots en nuestro laboratorio nos miraban a través de ojos plásticos y saltones», dijo Hod Lipson, profesor de innovación de James y Sally Scapa ( Ingeniería Mecánica) y director del Laboratorio de Máquinas Creativas.

Lipson observó una tendencia similar en la tienda de comestibles, donde se encontró con robots de reabastecimiento que llevaban insignias con su nombre y, en un caso, vestían una gorra acogedora tejida a mano. «La gente parecía estar humanizando a sus colegas robóticos dándoles ojos, una identidad o un nombre», dijo. «Esto nos hizo preguntarnos, si los ojos y la ropa funcionan, ¿por qué no hacer un robot que tenga un rostro humano súper expresivo y receptivo?»

Si bien esto suena simple, crear una cara robótica convincente ha sido un desafío formidable para los especialistas en robótica. Durante décadas, las partes robóticas del cuerpo han estado hechas de metal o plástico duro, materiales que eran demasiado rígidos para fluir y moverse como lo hace el tejido humano. El hardware robótico ha sido igualmente tosco y difícil de trabajar: los circuitos, sensores y motores son pesados, consumen mucha energía y son voluminosos.

Recomendado:  El nuevo diseño es apilable y reconfigurable, para intercambiar y construir sobre sensores existentes y procesadores de redes neuronales -- ScienceDaily

La primera fase del proyecto comenzó en el laboratorio de Lipson hace varios años cuando el estudiante de pregrado Zanwar Faraj dirigió un equipo de estudiantes en la construcción de la «maquinaria» física del robot. Construyeron a EVA como un busto incorpóreo que se parece mucho a los artistas silenciosos pero animados en el rostro del Blue Man Group. EVA puede expresar las seis emociones básicas de ira, disgusto, miedo, alegría, tristeza y sorpresa, así como una serie de emociones más matizadas, mediante el uso de «músculos» artificiales (es decir, cables y motores) que tiran de puntos específicos en EVA. rostro, imitando los movimientos de los más de 42 pequeños músculos unidos en varios puntos a la piel y los huesos de los rostros humanos.

«El mayor desafío en la creación de EVA fue diseñar un sistema que fuera lo suficientemente compacto como para caber dentro de los confines de un cráneo humano y, al mismo tiempo, fuera lo suficientemente funcional como para producir una amplia gama de expresiones faciales», señaló Faraj.

Para superar este desafío, el equipo se basó en gran medida en la impresión 3D para fabricar piezas con formas complejas que se integraron de manera perfecta y eficiente con el cráneo de EVA. Después de semanas de tirar de cables para hacer que EVA sonriera, frunza el ceño o se vea molesta, el equipo notó que el rostro azul e incorpóreo de EVA podía provocar respuestas emocionales de sus compañeros de laboratorio. «Estaba ocupándome de mis propios asuntos un día cuando EVA de repente me dio una gran sonrisa amistosa», recordó Lipson. «Sabía que era puramente mecánico, pero me encontré devolviéndole la sonrisa por reflejo».

Recomendado:  La inteligencia artificial identifica microdispositivos avanzados entre las principales compras de hoy

Una vez que el equipo estuvo satisfecho con la «mecánica» de EVA, comenzaron a abordar la segunda fase principal del proyecto: programar la inteligencia artificial que guiaría los movimientos faciales de EVA. Si bien durante años se han utilizado robots animatrónicos realistas en parques temáticos y estudios de cine, el equipo de Lipson logró dos avances tecnológicos. EVA utiliza inteligencia artificial de aprendizaje profundo para «leer» y luego reflejar las expresiones en rostros humanos cercanos. Y la capacidad de EVA para imitar una amplia gama de diferentes expresiones faciales humanas se aprende por ensayo y error al ver videos de sí misma.

Las actividades humanas más difíciles de automatizar involucran movimientos físicos no repetitivos que tienen lugar en entornos sociales complicados. Boyuan Chen, el estudiante de doctorado de Lipson que dirigió la fase de software del proyecto, rápidamente se dio cuenta de que los movimientos faciales de EVA eran un proceso demasiado complejo para regirse por conjuntos de reglas predefinidos. Para abordar este desafío, Chen y un segundo equipo de estudiantes crearon el cerebro de EVA utilizando varias redes neuronales de aprendizaje profundo. El cerebro del robot necesitaba dominar dos capacidades: primero, aprender a usar su propio sistema complejo de músculos mecánicos para generar cualquier expresión facial en particular, y segundo, saber qué caras hacer «leyendo» las caras de los humanos.

Para enseñarle a EVA cómo era su propia cara, Chen y su equipo filmaron horas de imágenes de EVA haciendo una serie de caras al azar. Luego, como un humano que se mira a sí mismo en Zoom, las redes neuronales internas de EVA aprendieron a emparejar el movimiento de los músculos con las imágenes de video de su propia cara. Ahora que EVA tenía un sentido primitivo de cómo funcionaba su propio rostro (conocido como «autoimagen»), utilizó una segunda red para hacer coincidir su propia autoimagen con la imagen de un rostro humano capturada en su cámara de video. Después de varios refinamientos e iteraciones, EVA adquirió la capacidad de leer los gestos del rostro humano desde una cámara y de responder reflejando la expresión facial de ese humano.

Recomendado:  La inteligencia artificial está reescribiendo el panorama de los medios

Los investigadores señalan que EVA es un experimento de laboratorio, y la mímica por sí sola todavía está muy lejos de las formas complejas en las que los humanos se comunican mediante expresiones faciales. Pero estas tecnologías habilitadoras podrían algún día tener aplicaciones beneficiosas en el mundo real. Por ejemplo, los robots capaces de responder a una amplia variedad de lenguaje corporal humano serían útiles en lugares de trabajo, hospitales, escuelas y hogares.

«Existe un límite en la cantidad de personas que podemos involucrarnos emocionalmente con los chatbots basados ​​en la nube o los altavoces de hogares inteligentes sin cuerpo», dijo Lipson. «Nuestros cerebros parecen responder bien a los robots que tienen algún tipo de presencia física reconocible».

Chen agregó: «Los robots están entrelazados en nuestras vidas de un número creciente de formas, por lo que generar confianza entre humanos y máquinas es cada vez más importante».

Video: https://www.youtube.com/watch?v=STx2HMHJFY8&t=3s

Video: https://www.youtube.com/watch?v=fYURp2OaGn0&t=2s

SITIO WEB DEL PROYECTO: http://www.cs.columbia.edu/~bchen/aiface/