Mejorando la visión por computadora para la IA – ScienceDaily

Investigadores de UTSA, la Universidad de Florida Central (UCF), el Laboratorio de Investigación de la Fuerza Aérea (AFRL) y SRI International han desarrollado un nuevo método que mejora la forma en que la inteligencia artificial aprende a ver.

Dirigido por Sumit Jha, profesor del Departamento de Ciencias de la Computación de UTSA, el equipo ha cambiado el enfoque convencional empleado para explicar las decisiones de aprendizaje automático que se basa en una sola inyección de ruido en la capa de entrada de una red neuronal.

El equipo muestra que agregar ruido, también conocido como pixelación, a lo largo de múltiples capas de una red proporciona una representación más sólida de una imagen reconocida por la IA y crea explicaciones más sólidas para las decisiones de la IA. Este trabajo ayuda en el desarrollo de lo que se ha llamado «IA explicable», que busca habilitar aplicaciones de IA de alta seguridad, como imágenes médicas y conducción autónoma.

«Se trata de inyectar ruido en cada capa», dijo Jha. «La red ahora se ve obligada a aprender una representación más sólida de la entrada en todas sus capas internas. Si cada capa experimenta más perturbaciones en cada entrenamiento, entonces la representación de la imagen será más sólida y no verá que la IA falla simplemente porque cambia algunos píxeles de la imagen de entrada «.


Recomendado: ¿Qué es el Big data?.


La visión por computadora, la capacidad de reconocer imágenes, tiene muchas aplicaciones comerciales. La visión por computadora puede identificar mejor las áreas de preocupación en el hígado y el cerebro de los pacientes con cáncer. Este tipo de aprendizaje automático también se puede emplear en muchas otras industrias. Los fabricantes pueden usarlo para detectar tasas de deserción, los drones pueden usarlo para ayudar a detectar fugas en las tuberías y los agricultores han comenzado a usarlo para detectar los primeros signos de enfermedades de los cultivos para mejorar sus rendimientos.

A través del aprendizaje profundo, una computadora está capacitada para realizar comportamientos, como reconocer el habla, identificar imágenes o hacer predicciones. En lugar de organizar los datos para ejecutar ecuaciones establecidas, el aprendizaje profundo funciona dentro de parámetros básicos sobre un conjunto de datos y entrena a la computadora para que aprenda por sí misma reconociendo patrones utilizando muchas capas de procesamiento.

El trabajo del equipo, dirigido por Jha, es un avance importante con respecto al trabajo anterior que ha realizado en este campo. En un artículo de 2019 presentado en el taller de seguridad de la IA, ubicado junto con la Conferencia Conjunta Internacional sobre Inteligencia Artificial (IJCAI) de ese año, Jha, sus estudiantes y colegas del Laboratorio Nacional de Oak Ridge demostraron cómo las malas condiciones en la naturaleza pueden conducir a una red neuronal peligrosa. rendimiento. Se le pidió a un sistema de visión por computadora que reconociera una minivan en una carretera, y lo hizo correctamente. Luego, su equipo agregó una pequeña cantidad de niebla y volvió a plantear la misma pregunta a la red: la IA identificó la minivan como una fuente. Como resultado, su artículo fue el mejor candidato.

En la mayoría de los modelos que se basan en ecuaciones diferenciales ordinarias neuronales (ODE), una máquina se entrena con una entrada a través de una red y luego se propaga a través de las capas ocultas para crear una respuesta en la capa de salida. Este equipo de investigadores de UTSA, UCF, AFRL y SRI utiliza un enfoque más dinámico conocido como ecuaciones diferenciales estocásticas (SDE). Explotar la conexión entre sistemas dinámicos para mostrar que las SDE neuronales conducen a atribuciones menos ruidosas, visualmente más nítidas y cuantitativamente robustas que las calculadas mediante las EDO neuronales.

El enfoque SDE aprende no solo de una imagen sino de un conjunto de imágenes cercanas debido a la inyección del ruido en múltiples capas de la red neuronal. A medida que se inyecta más ruido, la máquina aprenderá enfoques en evolución y encontrará mejores formas de dar explicaciones o atribuciones simplemente porque el modelo creado al inicio se basa en características cambiantes y / o las condiciones de la imagen. Es una mejora en varios otros enfoques de atribución, incluidos mapas de prominencia y gradientes integrados.

La nueva investigación de Jha se describe en el artículo «Sobre atribuciones más suaves usando ecuaciones diferenciales estocásticas neuronales». Los colaboradores de este enfoque novedoso incluyen a Richard Ewetz de UCF, Alvaro Velázquez de AFRL y Sumit Jha de SRI. El laboratorio está financiado por la Agencia de Proyectos de Investigación Avanzada de Defensa, la Oficina de Investigación Naval y la Fundación Nacional de Ciencias. Su investigación se presentará en la IJCAI de 2021, una conferencia con una tasa de aceptación de presentaciones de alrededor del 14%. Entre los presentadores anteriores de esta conferencia tan selectiva se encuentran Facebook y Google.

«Estoy encantado de compartir la fantástica noticia de que nuestro artículo sobre IA explicable acaba de ser aceptado en IJCAI», agregó Jha. «Esta es una gran oportunidad para que UTSA sea parte de la conversación global sobre cómo ve una máquina».

Fuente de la historia:

Materiales proporcionados por Universidad de Texas en San Antonio. Original escrito por Milady Nazir. Nota: El contenido puede editarse por estilo y longitud.