KAIST (presidente Kwang Hyung Lee) anunció el día 25 que un equipo de investigación dirigido por el profesor Jemin Hwangbo del Departamento de Ingeniería Mecánica desarrolló una tecnología de control de robot cuadrúpedo que puede caminar con agilidad incluso en terrenos deformables como una playa de arena.
El equipo de investigación del profesor Hwangbo desarrolló una tecnología para modelar la fuerza recibida por un robot que camina sobre el suelo hecho de materiales granulares como la arena y simularla a través de un robot cuadrúpedo. Además, el equipo trabajó en una estructura de red neuronal artificial que es adecuada para tomar decisiones en tiempo real necesarias para adaptarse a varios tipos de terreno sin información previa mientras se camina al mismo tiempo y lo aplicó al aprendizaje por refuerzo. Se espera que el controlador de red neuronal capacitado amplíe el ámbito de aplicación de los robots cuadrúpedos para caminar al demostrar su robustez en terrenos cambiantes, como la capacidad de moverse a alta velocidad incluso en una playa de arena y caminar y girar en terrenos blandos como un aire. colchón sin perder el equilibrio.
Esta investigación, con Ph.D. El estudiante Soo-Young Choi del Departamento de Ingeniería Mecánica de KAIST como primer autor, se publicó en enero en el ciencia robótica. (Título del artículo: Aprendiendo locomoción cuadrúpeda en terreno deformable).
El aprendizaje por refuerzo es un método de aprendizaje de IA que se utiliza para crear una máquina que recopila datos sobre los resultados de varias acciones en una situación arbitraria y utiliza ese conjunto de datos para realizar una tarea. Debido a que la cantidad de datos necesarios para el aprendizaje por refuerzo es tan grande, se utiliza ampliamente un método de recopilación de datos a través de simulaciones que se aproxima a los fenómenos físicos en el entorno real.
En particular, los controladores basados en el aprendizaje en el campo de los robots andantes se han aplicado a entornos reales después de aprender a través de los datos recopilados en simulaciones para realizar con éxito controles andantes en varios terrenos.
Sin embargo, dado que el rendimiento del controlador basado en aprendizaje disminuye rápidamente cuando el entorno real tiene alguna discrepancia con el entorno de simulación aprendido, es importante implementar un entorno similar al real en la etapa de recopilación de datos. Por lo tanto, para crear un controlador basado en el aprendizaje que pueda mantener el equilibrio en un terreno que se deforma, el simulador debe proporcionar una experiencia de contacto similar.
El equipo de investigación definió un modelo de contacto que predijo la fuerza generada por el contacto a partir de la dinámica de movimiento de un cuerpo que camina en función de un modelo de fuerza de reacción del suelo que consideró el efecto de masa adicional de los medios granulares definidos en estudios anteriores.
Además, al calcular la fuerza generada por uno o varios contactos en cada paso de tiempo, se simuló de manera eficiente el terreno deformante.
El equipo de investigación también introdujo una estructura de red neuronal artificial que predice implícitamente las características del suelo mediante el uso de una red neuronal recurrente que analiza datos de series temporales de los sensores del robot.
El controlador aprendido se montó en el robot ‘RaiBo’, que fue construido de forma práctica por el equipo de investigación para mostrar una marcha a alta velocidad de hasta 3,03 m/s en una playa de arena donde los pies del robot estaban completamente sumergidos en la arena. Incluso cuando se aplicó a terrenos más duros, como campos de hierba y una pista de atletismo, pudo funcionar de manera estable al adaptarse a las características del terreno sin ninguna programación adicional o revisión del algoritmo de control.
Además, giró con estabilidad a 1,54 rad/s (aproximadamente 90° por segundo) sobre un colchón de aire y demostró su rápida adaptabilidad incluso en situaciones en las que el terreno se ablanda repentinamente.
El equipo de investigación demostró la importancia de proporcionar una experiencia de contacto adecuada durante el proceso de aprendizaje en comparación con un controlador que asumía que el suelo era rígido y demostró que la red neuronal recurrente propuesta modifica el método de caminar del controlador según las propiedades del suelo.
Se espera que la metodología de simulación y aprendizaje desarrollada por el equipo de investigación contribuya a que los robots realicen tareas prácticas a medida que amplía la gama de terrenos en los que pueden operar varios robots andantes.
El primer autor, Suyoung Choi, dijo: «Se ha demostrado que proporcionar un controlador basado en el aprendizaje con una experiencia de contacto cercano con un suelo real que se deforma es esencial para la aplicación en terrenos que se deforman». Continuó agregando que «el controlador propuesto se puede usar sin información previa sobre el terreno, por lo que se puede aplicar a varios estudios de caminata de robots».
Esta investigación se llevó a cabo con el apoyo del Samsung Research Funding & Incubation Center de Samsung Electronics.