Saltar al contenido

Los investigadores de la NUS dan a los robots de detección habilidades para llevar a cabo tareas complejas.

20 de julio de 2020

Recoger una lata de refresco es una tarea sencilla para los humanos, pero es una tarea compleja para los robots, que tienen que localizar el objeto, deducir su forma, determinar la cantidad correcta de fuerza a utilizar, y agarrar el objeto sin dejarlo resbalar. La mayoría de los robots de hoy en día operan únicamente basados en el procesamiento visual, lo que limita sus capacidades. Para poder realizar tareas más complejas, los robots tienen que estar equipados con un sentido del tacto excepcional y la capacidad de procesar información sensorial de forma rápida e inteligente.

Un equipo de científicos informáticos e ingenieros de materiales de la Universidad Nacional de Singapur ha demostrado recientemente un enfoque para hacer más inteligentes a los robots. Desarrollaron un sistema de cerebro artificial integrado sensorialmente que imita las redes neuronales biológicas y funciona con el procesador neuromórfico de bajo consumo de Intel, el chip Loihi. El novedoso sistema integra piel artificial y sensores de visión, equipando a los robots con la capacidad de sacar conclusiones precisas sobre los objetos que están captando, basándose en los datos captados por los sensores de visión y tacto en tiempo real.

«El campo de la manipulación robótica ha hecho grandes progresos en los últimos años. Sin embargo, fusionar tanto la visión como la información táctil para proporcionar una respuesta altamente precisa en milisegundos sigue siendo un desafío tecnológico», dice el profesor adjunto Benjamin Tee del Departamento de Ciencia e Ingeniería de Materiales de la NUS. «Nuestro trabajo reciente combina nuestras pieles electrónicas y sistemas nerviosos ultrarrápidos con las últimas innovaciones en la detección de la visión y la IA de los robots para que puedan ser más inteligentes e intuitivos en las interacciones físicas». Tee co-lidera este proyecto con el profesor adjunto Harold Soh del Departamento de Ciencias de la Computación de la Escuela de Computación de NUS.

Recomendado:  AI dibujó esta magnífica serie de cómics. ¿Puedes decir?

Los investigadores describen su trabajo en «Event-Driven Visual-Tactile Sensing and Learning for Robots», presentado este mes en la Robótica: Ciencia y Sistemas.

Sentido táctil

Permitir un sentido del tacto similar al de los humanos en la robótica podría mejorar significativamente la funcionalidad actual, e incluso conducir a nuevos usos. Por ejemplo, en una fábrica, los brazos robóticos equipados con pieles electrónicas podrían adaptarse fácilmente a diferentes artículos, utilizando la detección táctil para identificar y agarrar objetos desconocidos con la cantidad adecuada de presión para evitar el deslizamiento.

En su sistema robótico, el equipo de la NUS aplicó una piel artificial avanzada conocida como Piel Electrónica Codificada Asíncrona (ACES) desarrollada por Tee y su equipo en 2019. Este sensor detecta los toques más de 1.000 veces más rápido que el sistema nervioso sensorial humano. También puede identificar la forma, la textura y la dureza de los objetos 10 veces más rápido que el parpadeo de un ojo.

«Hacer un sensor de piel artificial ultrarrápido resuelve la mitad del rompecabezas de hacer a los robots más inteligentes. También necesitan un cerebro artificial que pueda finalmente lograr la percepción y el aprendizaje como otra pieza crítica del rompecabezas», dice Tee, que también es del Instituto de Innovación y Tecnología de la Salud de la NUS.

Cerebro para los robots

Para abrir nuevos caminos en la percepción robótica, el equipo de NUS exploró la tecnología neuromórfica – un área de la computación que emula la estructura neural y el funcionamiento del cerebro humano – para procesar datos sensoriales de la piel artificial. Como Tee y Soh son miembros de la Comunidad de Investigación Neuromórfica de Intel, decidieron usar el chip de investigación Loihi de Intel para su nuevo sistema robótico.

Recomendado:  La gran idea: ¿deberíamos usar datos para tomar las grandes decisiones de la vida? | Libros

En sus experimentos iniciales, los investigadores equiparon una mano robótica con la piel artificial, y la usaron para leer Braille, pasando los datos táctiles a Loihi a través de la nube para convertir los micro baches que sentía la mano en un significado semántico. Loihi logró una precisión de más del 92 por ciento en la clasificación de las letras del Braille, mientras que utilizó 20 veces menos energía que un microprocesador normal.

El equipo de Soh mejoró las capacidades de percepción del robot combinando datos de visión y de tacto en una red neuronal de picos. En sus experimentos, los investigadores encargaron a un robot equipado con sensores de piel artificial y de visión que clasificara varios recipientes opacos que contenían diferentes cantidades de líquido. También probaron la capacidad del sistema para identificar el deslizamiento rotacional, que es importante para un agarre estable.

En ambas pruebas, la red neuronal de púas que utilizaba tanto datos de visión como de tacto fue capaz de clasificar objetos y detectar el deslizamiento de los mismos. La clasificación fue un 10 por ciento más precisa que un sistema que sólo utilizaba la visión. Además, utilizando una técnica desarrollada por el equipo de Soh, las redes neuronales podían clasificar los datos sensoriales mientras se acumulaban, a diferencia del enfoque convencional en el que los datos se clasifican después de haberlos recogido por completo. Además, los investigadores demostraron la eficiencia de la tecnología neuromórfica: Loihi procesó los datos sensoriales 21 por ciento más rápido que una unidad de procesamiento gráfico de alto rendimiento, mientras que utilizó más de 45 veces menos energía.

Recomendado:  Ian Rogers del LVMH lanza un proyecto de inteligencia artificial - WWD

«Estamos entusiasmados con estos resultados», dice Soh. «Muestran que un sistema neuromórfico es una pieza prometedora del rompecabezas para combinar múltiples sensores para mejorar la percepción del robot. Es un paso hacia la construcción de robots confiables y de bajo consumo de energía que pueden responder rápida y apropiadamente en situaciones inesperadas».

«Esta investigación de la Universidad Nacional de Singapur proporciona una visión convincente del futuro de la robótica, en la que la información se percibe y procesa de una manera impulsada por eventos que combina múltiples modalidades», dice Mike Davies, director del Laboratorio de Computación Neuromórfica de Intel. «El trabajo se suma a un creciente conjunto de resultados que muestran que la computación neuromórfica puede proporcionar ganancias significativas en la latencia y el consumo de energía una vez que todo el sistema es rediseñado en un paradigma basado en eventos que abarca sensores, formatos de datos, algoritmos y arquitectura de hardware».

Esta investigación contó con el apoyo de la Oficina Nacional de Programas de Investigación y Desarrollo en Robótica, un organismo que nutre el ecosistema de la robótica en Singapur mediante la financiación de la investigación y el desarrollo para mejorar la preparación de las tecnologías y soluciones de la robótica.

Avanzando, Tee y Soh planean seguir desarrollando su novedoso sistema robótico para aplicaciones en las industrias de logística y fabricación de alimentos donde hay una gran demanda de automatización robótica, especialmente avanzando en la era post-COVID.