El sistema utiliza radiofrecuencia penetrante para identificar elementos, incluso cuando están ocultos a la vista

En los últimos años, los robots han ganado visión, tacto e incluso olfato artificiales. “Los investigadores han estado dando a los robots una percepción similar a la humana”, dice el profesor asociado del MIT Fadel Adib. En un nuevo artículo, el equipo de Adib está impulsando la tecnología un paso más allá. “Estamos tratando de dar a los robots una percepción sobrehumana”, dice.

Los investigadores han desarrollado un robot que usa ondas de radio, que pueden atravesar paredes, para detectar objetos ocluidos. El robot, llamado RF-Grasp, combina esta poderosa detección con la visión por computadora más tradicional para ubicar y agarrar elementos que de otro modo podrían estar bloqueados de la vista. El avance podría algún día agilizar el cumplimiento del comercio electrónico en los almacenes o ayudar a una máquina a sacar un destornillador de un juego de herramientas desordenado.

La investigación se presentará en mayo en la Conferencia Internacional IEEE sobre Robótica y Automatización. La autora principal del artículo es Tara Boroushaki, asistente de investigación en el Signal Kinetics Group en el MIT Media Lab. Sus coautores del MIT incluyen a Adib, quien es el director de Signal Kinetics Group; y Alberto Rodríguez, profesor asociado de la promoción de 1957 en el Departamento de Ingeniería Mecánica. Otros coautores incluyen a Junshan Leng, ingeniero de investigación de la Universidad de Harvard, e Ian Clester, estudiante de doctorado en Georgia Tech.

A medida que el comercio electrónico continúa creciendo, el trabajo en el almacén sigue siendo generalmente dominio de los humanos, no de los robots, a pesar de las condiciones de trabajo a veces peligrosas. Eso se debe en parte a que los robots luchan por localizar y agarrar objetos en un entorno tan abarrotado. “La percepción y la selección son dos obstáculos en la industria actual”, dice Rodríguez. Usando solo la visión óptica, los robots no pueden percibir la presencia de un artículo guardado en una caja o escondido detrás de otro objeto en el estante; las ondas de luz visibles, por supuesto, no atraviesan las paredes.


Recomendado: ¿Qué es el Big data?.


Pero las ondas de radio pueden hacerlo.

Durante décadas, la identificación por radiofrecuencia (RF) se ha utilizado para rastrear todo, desde libros de la biblioteca hasta mascotas. Los sistemas de identificación de RF tienen dos componentes principales: un lector y una etiqueta. La etiqueta es un pequeño chip de computadora que se adhiere o, en el caso de las mascotas, se implanta en el elemento que se va a rastrear. Luego, el lector emite una señal de RF, que es modulada por la etiqueta y reflejada al lector.

La señal reflejada proporciona información sobre la ubicación y la identidad del artículo etiquetado. La tecnología ha ganado popularidad en las cadenas de suministro minoristas: Japón tiene como objetivo utilizar el seguimiento de RF para casi todas las compras minoristas en cuestión de años. Los investigadores se dieron cuenta de que esta profusión de RF podría ser una bendición para los robots, dándoles otro modo de percepción.

“La RF es una modalidad de detección muy diferente a la visión”, dice Rodríguez. “Sería un error no explorar lo que puede hacer la RF”.

RF Grasp utiliza una cámara y un lector de RF para encontrar y agarrar objetos etiquetados, incluso cuando están completamente bloqueados de la vista de la cámara. Consiste en un brazo robótico unido a una mano que lo agarra. La cámara se coloca en la muñeca del robot. El lector de RF es independiente del robot y transmite información de seguimiento al algoritmo de control del robot. Por lo tanto, el robot recopila constantemente datos de seguimiento de RF y una imagen visual de su entorno. La integración de estos dos flujos de datos en la toma de decisiones del robot fue uno de los mayores desafíos que enfrentaron los investigadores.

“El robot tiene que decidir, en cada momento, en cuál de estas corrientes es más importante pensar”, dice Boroushaki. “No es sólo la coordinación ojo-mano, es la coordinación RF-ojo-mano. Entonces, el problema se complica mucho”.

El robot inicia el proceso de buscar y arrancar haciendo ping a la etiqueta de RF del objeto objetivo para tener una idea de su paradero. “Comienza usando RF para enfocar la atención de la visión”, dice Adib. “Entonces usas la visión para realizar maniobras precisas”. La secuencia es similar a escuchar una sirena desde atrás, luego girar para mirar y obtener una imagen más clara de la fuente de la sirena.

Con sus dos sentidos complementarios, RF Grasp se concentra en el objeto objetivo. A medida que se acerca e incluso comienza a manipular el elemento, la visión, que proporciona detalles mucho más finos que la RF, domina la toma de decisiones del robot.

RF Grasp demostró su eficacia en una batería de pruebas. En comparación con un robot similar equipado con solo una cámara, RF Grasp pudo localizar y agarrar su objeto objetivo con aproximadamente la mitad del movimiento total. Además, RF Grasp mostró la capacidad única de “ordenar” su entorno, eliminando los materiales de embalaje y otros obstáculos en su camino para acceder al objetivo. Rodríguez dice que esto demuestra la “ventaja injusta” de RF Grasp sobre los robots sin detección de RF penetrante. “Tiene esta guía que otros sistemas simplemente no tienen”.

RF Grasp podría algún día realizar el cumplimiento en almacenes de comercio electrónico repletos. Su sensor de RF podría incluso verificar instantáneamente la identidad de un artículo sin la necesidad de manipularlo, exponer su código de barras y luego escanearlo. “RF tiene el potencial de mejorar algunas de esas limitaciones en la industria, especialmente en percepción y localización”, dice Rodríguez.

Adib también prevé posibles aplicaciones domésticas para el robot, como ubicar la llave Allen adecuada para ensamblar su silla Ikea. “O podría imaginarse al robot encontrando objetos perdidos. Es como un súper Roomba que va y recupera mis llaves, donde sea que las ponga”.

La investigación está patrocinada por la National Science Foundation, NTT DATA, Toppan, Toppan Forms y Abdul Latif Jameel Water and Food Systems Lab (J-WAFS).