Saltar al contenido

El aprendizaje profundo hace que la navegación visual relativa al terreno sea más práctica

26 de junio de 2021

Sin GPS, los sistemas autónomos se pierden fácilmente. Ahora, un nuevo algoritmo desarrollado en Caltech permite que los sistemas autónomos reconozcan dónde están simplemente mirando el terreno que los rodea y, por primera vez, la tecnología funciona independientemente de los cambios estacionales en ese terreno.

Los detalles sobre el proceso se publicaron el 23 de junio en la revista Science Robotics, publicada por la Asociación Estadounidense para el Avance de la Ciencia (AAAS).

El proceso general, conocido como navegación visual relativa al terreno (VTRN), se desarrolló por primera vez en la década de 1960. Al comparar el terreno cercano con imágenes de satélite de alta resolución, los sistemas autónomos pueden ubicarse por sí mismos.

El problema es que, para que funcione, la generación actual de VTRN requiere que el terreno que está mirando coincida con las imágenes de su base de datos. Cualquier cosa que altere u oscurezca el terreno, como la capa de nieve o las hojas caídas, hace que las imágenes no coincidan y ensucia el sistema. Por lo tanto, a menos que haya una base de datos de las imágenes del paisaje en todas las condiciones concebibles, los sistemas VTRN pueden confundirse fácilmente.


Recomendado: ¿Qué es el Big data?.


Para superar este desafío, un equipo del laboratorio de Soon-Jo Chung, profesor Bren de Aeroespacial y Control y Sistemas Dinámicos e investigador científico en JPL, que Caltech administra para la NASA, recurrió al aprendizaje profundo y la inteligencia artificial (IA) para eliminar la estacionalidad. contenido que obstaculiza los sistemas actuales de VTRN.

«La regla general es que ambas imágenes, la del satélite y la del vehículo autónomo, deben tener un contenido idéntico para que funcionen las técnicas actuales. Las diferencias que pueden manejar se refieren a lo que se puede lograr con un Filtro de Instagram que cambia los tonos de una imagen «, dice Anthony Fragoso (MS ’14, PhD ’18), profesor y científico del personal, y autor principal del artículo de Science Robotics. «En los sistemas reales, sin embargo, las cosas cambian drásticamente según la estación porque las imágenes ya no contienen los mismos objetos y no se pueden comparar directamente».

El proceso, desarrollado por Chung y Fragoso en colaboración con el estudiante de posgrado Connor Lee (BS ’17, MS ’19) y el estudiante de pregrado Austin McCoy, utiliza lo que se conoce como «aprendizaje auto supervisado». Si bien la mayoría de las estrategias de visión por computadora se basan en anotadores humanos que seleccionan cuidadosamente grandes conjuntos de datos para enseñarle a un algoritmo cómo reconocer lo que está viendo, esta permite que el algoritmo se enseñe a sí mismo. La IA busca patrones en las imágenes desentrañando detalles y características que los humanos probablemente pasarían por alto.

Complementar la generación actual de VTRN con el nuevo sistema produce una localización más precisa: en un experimento, los investigadores intentaron localizar imágenes de follaje de verano frente a imágenes de hojas de invierno utilizando una técnica de VTRN basada en correlación. Descubrieron que el rendimiento no era mejor que un lanzamiento de moneda, y el 50 por ciento de los intentos resultaban en fallas de navegación. Por el contrario, la inserción del nuevo algoritmo en el VTRN funcionó mucho mejor: el 92 por ciento de los intentos se emparejaron correctamente y el 8 por ciento restante pudo identificarse como problemático de antemano y luego manejarse fácilmente utilizando otras técnicas de navegación establecidas.

«Las computadoras pueden encontrar patrones oscuros que nuestros ojos no pueden ver y pueden captar incluso la tendencia más pequeña», dice Lee. VTRN estaba en peligro de convertirse en una tecnología inviable en entornos comunes pero desafiantes, dice. «Rescatamos décadas de trabajo para resolver este problema».

Más allá de la utilidad para drones autónomos en la Tierra, el sistema también tiene aplicaciones para misiones espaciales. El sistema de entrada, descenso y aterrizaje (EDL) de la misión del rover Perseverance Mars 2020 de JPL, por ejemplo, usó VTRN por primera vez en el Planeta Rojo para aterrizar en el cráter Jezero, un sitio que anteriormente se consideraba demasiado peligroso para una caja fuerte. entrada. Con vehículos como Perseverance, «es necesaria una cierta cantidad de conducción autónoma», dice Chung, «ya que las transmisiones tardan siete minutos en viajar entre la Tierra y Marte, y no hay GPS en Marte». El equipo consideró las regiones polares marcianas que también tienen intensos cambios estacionales, condiciones similares a las de la Tierra, y el nuevo sistema podría permitir una navegación mejorada para respaldar los objetivos científicos, incluida la búsqueda de agua.

A continuación, Fragoso, Lee y Chung ampliarán la tecnología para tener en cuenta también los cambios en el clima: niebla, lluvia, nieve, etc. Si tiene éxito, su trabajo podría ayudar a mejorar los sistemas de navegación para automóviles sin conductor.

Este proyecto fue financiado por Boeing Company y la National Science Foundation. McCoy participó a través del programa de becas de investigación de pregrado de verano de Caltech.