Los investigadores de la Universidad Estatal de Oregón están haciendo avances clave con un nuevo tipo de sensor óptico que imita más de cerca la capacidad del ojo humano para percibir los cambios en su campo visual.
El sensor es un gran avance en campos como el reconocimiento de imágenes, la robótica y la inteligencia artificial. Los hallazgos del investigador del OSU College of Engineering John Labram y de la estudiante de postgrado Cinthya Trujillo Herrera fueron publicados hoy en Letras de Física Aplicada.
Los intentos anteriores de construir un tipo de dispositivo de ojo humano, llamado sensor retinomórfico, se han basado en software o hardware complejo, dijo Labram, profesor asistente de ingeniería eléctrica y ciencias de la computación. Pero el funcionamiento del nuevo sensor es parte de su diseño fundamental, usando capas ultrafinas de semiconductores de perovskita, ampliamente estudiados en los últimos años por su potencial de energía solar, que cambian de fuertes aislantes eléctricos a fuertes conductores cuando se colocan en la luz.
«Se puede pensar que un solo píxel hace algo que actualmente requeriría un microprocesador», dijo Labram, quien está dirigiendo el esfuerzo de investigación con el apoyo de la Fundación Nacional de Ciencias.
El nuevo sensor podría ser un complemento perfecto para las computadoras neuromórficas que alimentarán la próxima generación de inteligencia artificial en aplicaciones como coches auto-conductores, robótica y reconocimiento avanzado de imágenes, dijo Labram. A diferencia de las computadoras tradicionales, que procesan la información secuencialmente como una serie de instrucciones, las computadoras neuromórficas están diseñadas para emular las redes paralelas masivas del cerebro humano.
«La gente ha tratado de replicar esto en el hardware y han tenido un éxito razonable», dijo Labram. «Sin embargo, aunque los algoritmos y la arquitectura diseñados para procesar la información se parecen cada vez más al cerebro humano, la información que reciben estos sistemas sigue estando decididamente diseñada para las computadoras tradicionales».
En otras palabras: Para alcanzar su máximo potencial, un ordenador que «piensa» más como un cerebro humano necesita un sensor de imagen que «vea» más como un ojo humano.
Un órgano espectacularmente complejo, el ojo contiene alrededor de 100 millones de fotorreceptores. Sin embargo, el nervio óptico sólo tiene un millón de conexiones con el cerebro. Esto significa que una cantidad significativa de preprocesamiento y compresión dinámica debe tener lugar en la retina antes de que la imagen pueda ser transmitida.
Resulta que nuestro sentido de la visión está particularmente bien adaptado para detectar objetos en movimiento y está comparativamente «menos interesado» en las imágenes estáticas, dijo Labram. Así, nuestro circuito óptico da prioridad a las señales de los fotorreceptores que detectan un cambio en la intensidad de la luz — puedes demostrarlo tú mismo mirando fijamente a un punto fijo hasta que los objetos de tu visión periférica empiezan a desaparecer, un fenómeno conocido como el efecto Troxler.
Las tecnologías de detección convencionales, como los chips de las cámaras digitales y los teléfonos inteligentes, se adaptan mejor al procesamiento secuencial, dijo Labram. Las imágenes son escaneadas a través de un conjunto bidimensional de sensores, píxel por píxel, a una frecuencia establecida. Cada sensor genera una señal con una amplitud que varía directamente con la intensidad de la luz que recibe, lo que significa que una imagen estática dará como resultado un voltaje de salida más o menos constante del sensor.
Por el contrario, el sensor retinomórfico permanece relativamente tranquilo en condiciones estáticas. Registra una señal corta y aguda cuando detecta un cambio en la iluminación, y luego vuelve rápidamente a su estado inicial. Este comportamiento se debe a las propiedades fotoeléctricas únicas de una clase de semiconductores conocidos como perovskitas, que han demostrado ser muy prometedores como materiales de células solares de nueva generación y bajo coste.
En el sensor retinomórfico de Labram, la perovskita se aplica en capas ultrafinas, de sólo unos pocos cientos de nanómetros de grosor, y funciona esencialmente como un condensador que varía su capacitancia bajo la iluminación. Un condensador almacena energía en un campo eléctrico.
«La forma en que lo probamos es, básicamente, lo dejamos a oscuras por un segundo, luego encendemos las luces y las dejamos encendidas», dijo. «Tan pronto como la luz se enciende, se obtiene este gran pico de voltaje, entonces el voltaje decae rápidamente, aunque la intensidad de la luz es constante. Y eso es lo que queremos».
Aunque el laboratorio de Labram actualmente sólo puede probar un sensor a la vez, su equipo midió varios dispositivos y desarrolló un modelo numérico para replicar su comportamiento, llegando a lo que Labram considera «una buena combinación» entre la teoría y el experimento.
Esto permitió al equipo simular un conjunto de sensores retinomórficos para predecir cómo respondería una cámara de vídeo retinomórfica a un estímulo de entrada.
«Podemos convertir el video en un conjunto de intensidades de luz y luego ponerlo en nuestra simulación», dijo Labram. «Las regiones en las que se predice una salida de mayor voltaje del sensor se iluminan, mientras que las regiones de menor voltaje permanecen oscuras. Si la cámara es relativamente estática, puedes ver claramente que todas las cosas que se mueven responden fuertemente. Esto se mantiene razonablemente fiel al paradigma de la detección óptica en los mamíferos».
Una simulación con imágenes de una práctica de béisbol demuestra los resultados esperados: Los jugadores en el campo se muestran como objetos brillantes y claramente visibles en movimiento. Los objetos relativamente estáticos – el campo de béisbol, las gradas, incluso los jugadores de campo – se desvanecen en la oscuridad.
Una simulación aún más sorprendente muestra un pájaro volando a la vista, y luego casi desaparece al detenerse en un comedero invisible para pájaros. El pájaro reaparece cuando despega. El comedero, que se balancea, se hace visible sólo cuando comienza a moverse.
«Lo bueno es que, con esta simulación, podemos introducir cualquier vídeo en una de estas matrices y procesar esa información esencialmente de la misma manera que lo haría el ojo humano», dijo Labram. «Por ejemplo, puedes imaginar estos sensores utilizados por un robot que rastrea el movimiento de los objetos. Cualquier cosa estática en su campo de visión no provocaría una respuesta, sin embargo un objeto en movimiento estaría registrando un alto voltaje. Esto le diría al robot inmediatamente dónde está el objeto, sin ningún procesamiento de imagen complejo».