Conducir en la nieve es un esfuerzo de equipo para los sensores de inteligencia artificial

A nadie le gusta conducir en una tormenta de nieve, incluidos los vehículos autónomos. Para que los vehículos autónomos sean más seguros en carreteras nevadas, los ingenieros analizan el problema desde el punto de vista del vehículo.

Un gran desafío para los vehículos totalmente autónomos es navegar con mal tiempo. La nieve confunde especialmente los datos cruciales del sensor que ayudan a un vehículo a medir la profundidad, encontrar obstáculos y mantenerse en el lado correcto de la línea amarilla, suponiendo que sea visible. Con un promedio de más de 200 pulgadas de nieve cada invierno, la península de Keweenaw en Michigan es el lugar perfecto para llevar la tecnología de vehículos autónomos al límite. En dos artículos presentados en SPIE Defense + Commercial Sensing 2021, investigadores de la Universidad Tecnológica de Michigan discuten soluciones para escenarios de conducción nevados que podrían ayudar a llevar opciones de conducción autónoma a ciudades nevadas como Chicago, Detroit, Minneapolis y Toronto.

Al igual que el clima a veces, la autonomía no es una designación de sí o no soleado o nevado. Los vehículos autónomos cubren un espectro de niveles, desde automóviles que ya están en el mercado con advertencias de ángulo muerto o asistencia de frenado, hasta vehículos que pueden entrar y salir de los modos de conducción autónoma, y ​​otros que pueden navegar por su cuenta. Los principales fabricantes de automóviles y universidades de investigación todavía están ajustando la tecnología y los algoritmos de conducción autónoma. Ocasionalmente ocurren accidentes, ya sea debido a un error de juicio por parte de la inteligencia artificial (IA) del automóvil o al uso indebido de las funciones de conducción autónoma por parte de un conductor humano.

Los seres humanos también tenemos sensores: nuestros ojos que escanean, nuestro sentido del equilibrio y el movimiento, y el poder de procesamiento de nuestro cerebro nos ayudan a comprender nuestro entorno. Estos insumos aparentemente básicos nos permiten conducir en prácticamente todos los escenarios, incluso si son nuevos para nosotros, porque los cerebros humanos son buenos para generalizar experiencias novedosas. En los vehículos autónomos, dos cámaras montadas en cardanes escanean y perciben la profundidad usando visión estéreo para imitar la visión humana, mientras que el equilibrio y el movimiento se pueden medir usando una unidad de medición inercial. Pero, las computadoras solo pueden reaccionar ante escenarios que hayan encontrado antes o que hayan sido programadas para reconocer.


Recomendado: ¿Qué es el Big data?.


Dado que los cerebros artificiales aún no existen, los algoritmos de inteligencia artificial (IA) para tareas específicas deben tomar el volante, lo que significa que los vehículos autónomos deben depender de múltiples sensores. Las cámaras de ojo de pez amplían la vista mientras que otras cámaras actúan de manera muy similar al ojo humano. El infrarrojo capta las firmas de calor. El radar puede ver a través de la niebla y la lluvia. La detección y el alcance de la luz (lidar) atraviesan la oscuridad y tejen un tapiz de neón de hilos de rayos láser.

“Cada sensor tiene limitaciones, y cada sensor cubre la espalda de otro”, dijo Nathir Rawashdeh, profesor asistente de computación en la Facultad de Computación de Michigan Tech y uno de los investigadores principales del estudio. Trabaja para reunir los datos de los sensores a través de un proceso de inteligencia artificial llamado fusión de sensores.

“La fusión de sensores utiliza múltiples sensores de diferentes modalidades para comprender una escena”, dijo. “No se puede programar exhaustivamente para cada detalle cuando las entradas tienen patrones difíciles. Por eso necesitamos IA”.

Los colaboradores de Rawashdeh Michigan Tech incluyen a Nader Abu-Alrub, su estudiante de doctorado en ingeniería eléctrica e informática, y Jeremy Bos, profesor asistente de ingeniería eléctrica e informática, junto con estudiantes de maestría y graduados del laboratorio de Bos: Akhil Kurup, Derek Chopp y Zach Jeffries. Bos explica que los sensores lidar, infrarrojos y otros por sí solos son como el martillo de un viejo adagio. “‘Para un martillo, todo parece un clavo'”, citó Bos. “Bueno, si tienes un destornillador y una pistola de remaches, entonces tienes más opciones”.

La mayoría de los sensores autónomos y los algoritmos de conducción autónoma se están desarrollando en paisajes despejados y soleados. Sabiendo que el resto del mundo no es como Arizona o el sur de California, el laboratorio de Bos comenzó a recopilar datos locales en un vehículo autónomo de Michigan Tech (conducido de manera segura por un humano) durante las fuertes nevadas. El equipo de Rawashdeh, en particular Abu-Alrub, analizó más de 1.000 fotogramas de datos lidar, radar e imágenes de carreteras nevadas en Alemania y Noruega para comenzar a enseñar a su programa de inteligencia artificial cómo se ve la nieve y cómo ver más allá.

“No toda la nieve es igual”, dijo Bos, señalando que la variedad de nieve hace que la detección de sensores sea un desafío. Rawashdeh agregó que el procesamiento previo de los datos y garantizar un etiquetado preciso es un paso importante para garantizar la precisión y la seguridad: “La IA es como un chef: si tiene buenos ingredientes, habrá una comida excelente”, dijo. “Dé a la red de aprendizaje de IA datos sucios del sensor y obtendrá un mal resultado”.

Los datos de baja calidad son un problema y también lo es la suciedad real. Al igual que la suciedad de la carretera, la acumulación de nieve en los sensores es un problema que se puede resolver pero molesto. Una vez que la vista es clara, los sensores de vehículos autónomos aún no siempre están de acuerdo en la detección de obstáculos. Bos mencionó un gran ejemplo de cómo descubrir un ciervo mientras limpiaba los datos recopilados localmente. Lidar dijo que el blob no era nada (30% de probabilidad de obstáculo), la cámara lo vio como un humano adormilado al volante (50% de probabilidad) y el sensor de infrarrojos gritó WHOA (90% seguro de que es un ciervo).

Hacer que los sensores y sus evaluaciones de riesgo hablen y aprendan unos de otros es como la parábola india de tres hombres ciegos que encuentran un elefante: cada uno toca una parte diferente del elefante (la oreja, la trompa y la pierna de la criatura) y llega a una conclusión diferente sobre qué tipo de animal es. Mediante la fusión de sensores, Rawashdeh y Bos quieren sensores autónomos para descubrir colectivamente la respuesta, ya sea elefante, ciervo o banco de nieve. Como dice Bos, “En lugar de votar estrictamente, mediante la fusión de sensores obtendremos una nueva estimación”.

Si bien navegar por una ventisca de Keweenaw es una salida para los vehículos autónomos, sus sensores pueden mejorar para aprender sobre el mal tiempo y, con avances como la fusión de sensores, algún día podrán conducir de manera segura en carreteras nevadas.