Saltar al contenido

Cómo la tecnología de imágenes oculares podría ayudar a los robots y automóviles a ver mejor

29 de marzo de 2022

Aunque los robots no tienen ojos con retina, la clave para ayudarlos a ver e interactuar con el mundo de manera más natural y segura puede estar en las máquinas de tomografía de coherencia óptica (OCT) que se encuentran comúnmente en las oficinas de los oftalmólogos.

Una de las tecnologías de imagen que muchas empresas de robótica están integrando en sus paquetes de sensores es la detección y rango de luz, o LiDAR para abreviar. Actualmente, atrayendo una gran atención e inversión por parte de los desarrolladores de automóviles autónomos, el enfoque funciona esencialmente como un radar, pero en lugar de enviar ondas de radio amplias y buscar reflejos, utiliza pulsos cortos de luz de láser.

Sin embargo, el LiDAR de tiempo de vuelo tradicional tiene muchos inconvenientes que dificultan su uso en muchas aplicaciones de visión 3D. Debido a que requiere la detección de señales de luz reflejada muy débiles, otros sistemas LiDAR o incluso la luz solar ambiental pueden abrumar fácilmente al detector. También tiene una resolución de profundidad limitada y puede llevar mucho tiempo escanear densamente un área grande, como una carretera o el piso de una fábrica. Para hacer frente a estos desafíos, los investigadores están recurriendo a una forma de LiDAR llamada LiDAR de onda continua modulada en frecuencia (FMCW).

«FMCW LiDAR comparte el mismo principio de funcionamiento que OCT, que el campo de la ingeniería biomédica ha estado desarrollando desde principios de la década de 1990», dijo Ruobing Qian, estudiante de doctorado que trabaja en el laboratorio de Joseph Izatt, profesor distinguido de ingeniería biomédica Michael J. Fitzpatrick. en Duque. «Pero hace 30 años, nadie sabía que los coches autónomos o los robots serían una cosa, por lo que la tecnología se centró en la obtención de imágenes de tejidos. Ahora, para que sea útil para estos otros campos emergentes, necesitamos cambiar sus capacidades de resolución extremadamente alta por una mayor distancia». y velocidad».

Recomendado:  Prepara tu comida junto con un robot | Noticias

En un artículo que aparece el 29 de marzo en la revista Nature Communications, el equipo de Duke demuestra cómo algunos trucos aprendidos de su investigación OCT pueden mejorar en 25 veces el rendimiento de datos FMCW LiDAR anterior y al mismo tiempo lograr una precisión de profundidad submilimétrica.

OCT es el análogo óptico del ultrasonido, que funciona enviando ondas de sonido a los objetos y midiendo cuánto tardan en regresar. Para cronometrar los tiempos de retorno de las ondas de luz, los dispositivos OCT miden cuánto ha cambiado su fase en comparación con ondas de luz idénticas que han viajado la misma distancia pero que no han interactuado con otro objeto.

FMCW LiDAR adopta un enfoque similar con algunos ajustes. La tecnología envía un rayo láser que cambia continuamente entre diferentes frecuencias. Cuando el detector reúne luz para medir su tiempo de reflexión, puede distinguir entre el patrón de frecuencia específico y cualquier otra fuente de luz, lo que le permite trabajar en todo tipo de condiciones de iluminación a muy alta velocidad. Luego mide cualquier cambio de fase contra haces sin obstáculos, que es una forma mucho más precisa de determinar la distancia que los sistemas LiDAR actuales.

«Ha sido muy emocionante ver cómo la tecnología de imágenes biológicas a escala celular en la que hemos estado trabajando durante décadas se puede traducir directamente a la visión 3D en tiempo real a gran escala», dijo Izatt. «Estas son exactamente las capacidades necesarias para que los robots vean e interactúen con humanos de manera segura o incluso para reemplazar avatares con video 3D en vivo en realidad aumentada».

Recomendado:  El ingeniero de Google que ve la IA de la empresa como "consciente" cree que un chatbot tiene alma

La mayoría de los trabajos anteriores que utilizan LiDAR se han basado en espejos giratorios para escanear el láser sobre el paisaje. Si bien este enfoque funciona bien, está fundamentalmente limitado por la velocidad del espejo mecánico, sin importar qué tan poderoso sea el láser que esté usando.

En su lugar, los investigadores de Duke utilizan una rejilla de difracción que funciona como un prisma, descomponiendo el láser en un arco iris de frecuencias que se esparcen a medida que se alejan de la fuente. Debido a que el láser original todavía barre rápidamente a través de un rango de frecuencias, esto se traduce en barrer el haz LiDAR mucho más rápido de lo que puede girar un espejo mecánico. Esto permite que el sistema cubra rápidamente un área amplia sin perder mucha profundidad o precisión de ubicación.

Mientras que los dispositivos OCT se utilizan para perfilar estructuras microscópicas de hasta varios milímetros de profundidad dentro de un objeto, los sistemas robóticos de visión 3D solo necesitan ubicar las superficies de objetos a escala humana. Para lograr esto, los investigadores redujeron el rango de frecuencias utilizado por OCT y solo buscaron la señal máxima generada por las superficies de los objetos. Esto le cuesta al sistema un poco de resolución, pero con un rango de imágenes y una velocidad mucho mayores que el LiDAR tradicional.

El resultado es un sistema FMCW LiDAR que logra una precisión de localización submilimétrica con un rendimiento de datos 25 veces mayor que las demostraciones anteriores. Los resultados muestran que el enfoque es lo suficientemente rápido y preciso para capturar los detalles de las partes del cuerpo humano en movimiento, como asentir con la cabeza o apretar la mano, en tiempo real.

Recomendado:  La similitud de piernas, ruedas y orugas sugiere un objetivo para los robots energéticamente eficientes

«Al igual que las cámaras electrónicas se han vuelto omnipresentes, nuestra visión es desarrollar una nueva generación de cámaras 3D basadas en LiDAR que sean lo suficientemente rápidas y capaces para permitir la integración de la visión 3D en todo tipo de productos», dijo Izatt. «El mundo que nos rodea es 3D, por lo que si queremos que los robots y otros sistemas automatizados interactúen con nosotros de forma natural y segura, deben poder vernos tan bien como nosotros podemos verlos a ellos».

Esta investigación fue apoyada por los Institutos Nacionales de Salud (EY028079), la Fundación Nacional de Ciencias (CBET-1902904) y el Departamento de Defensa CDMRP (W81XWH-16-1-0498).

Fuente de la historia:

Materiales proporcionados por Universidad de Duke. Original escrito por Ken Kingery. Nota: el contenido se puede editar por estilo y longitud.