Dell Technologies ha desarrollado un modelo de aprendizaje profundo para acelerar el etiquetado y el análisis de imágenes de arrecifes de coral tomadas por Citizens of the Great Barrier Reef, una organización de conservación con sede en Australia.
Las imágenes submarinas, capturadas por buzos y buceadores que salen al mar en botes de buceo y otras embarcaciones, se utilizan en el Censo anual del Gran Arrecife (GRC) para determinar la salud de la Gran Barrera de Coral que se extiende 2400 km a lo largo de la costa este de Australia.
En el primer año del censo, se recopilaron unas 13 000 imágenes de 240 arrecifes, lo que lo convierte en uno de los proyectos de ciencia ciudadana más grandes del mundo, según Andy Ridley, director ejecutivo fundador de Citizens of the Great Barrier Reef.
Sin embargo, dar sentido a las imágenes puede llevar mucho tiempo. En el primer censo, los científicos ciudadanos tardaron 1516 horas en analizar todas las imágenes, y cada voluntario dedicó unos siete minutos por imagen. También está el problema de la precisión, ya que los científicos ciudadanos tienden a ser menos precisos en la identificación de arrecifes que los científicos profesionales.
Ahí es donde interviene el aprendizaje profundo: el modelo de aprendizaje profundo de Dell puede clasificar los bordes de un arrecife utilizando la segmentación semántica en menos de 10 segundos, y un científico ciudadano luego verificaría la precisión del etiquetado.
“Dell Technologies está trabajando a través de la asociación hombre-máquina para tomar lo que era cerca de 144 categorías diferentes de organismos de arrecifes y dividirlos en subcategorías”, dijo Danny Elmarji, vicepresidente de preventa de Dell Technologies Asia-Pacífico y Japón.
“Y pudimos tomar una lista corta de 13 categorías y refinarlas repetidamente hasta que solo hubo cinco categorías críticas, lo que hizo que sea realmente fácil para los humanos verificar qué es un arrecife o no”, agregó.
Aruna Kolluru, tecnóloga en jefe de inteligencia artificial de Dell Technologies Asia-Pacífico y Japón, dijo que el modelo de aprendizaje profundo será más preciso con más capacitación, y que se está trabajando para mejorar la precisión trabajando con nuevas arquitecturas de modelo y conjuntos de datos.
Por ahora, el modelo ha logrado una precisión del 67%, lo que Kolluru dijo que era un «buen modelo», ya que es difícil lograr una alta precisión para los objetos en la naturaleza. Se espera que esté completamente implementado en noviembre de 2022 y actualmente se está sometiendo a más pruebas.
El Instituto Australiano de Ciencias Marinas (Aims) también ha estado monitoreando la salud de los arrecifes de coral en Australia y otros ecosistemas marinos, utilizando la visión por computadora a través de una asociación con Accenture.
Utilizando una base de datos de Aims de 6000 imágenes de seis regiones oceánicas diferentes, la tecnología ayuda a automatizar el análisis de imágenes de arrecifes de coral, para que los investigadores puedan comprender la respuesta de especies de coral específicas a escenarios estresantes como eventos de blanqueamiento, entre otras cosas.
Estas imágenes se analizaron y etiquetaron previamente de forma manual, lo que limitaba la escala a la que se podían analizar las imágenes y, en última instancia, ralentizaba los esfuerzos de preservación, dijo Richard McNiff, director de innovación rápida en The Dock de Accenture, una instalación de investigación y desarrollo en Dublín, Irlanda.
“El uso de la visión por computadora para automatizar este proceso proporcionará a los equipos los medios para etiquetar imágenes mucho más rápido y con más detalle”, dijo McNiff. “Esto también permitirá un análisis de imágenes más avanzado, y a escala”.