Saltar al contenido

Guido Cervone es coautor del informe nacional sobre el uso ético de la inteligencia artificial

17 de junio de 2023

UNIVERSITY PARK, Pa. — Desde el reconocimiento facial en teléfonos inteligentes hasta asistentes de voz digitales como Siri y herramientas como ChatGPT, la inteligencia artificial y el aprendizaje automático son parte de nuestra vida cotidiana. Sus beneficios son muchos, pero su rápido aumento también genera preguntas sobre sus riesgos. El uso ético de la inteligencia artificial y el aprendizaje automático (AI/ML) en la investigación científica también se está convirtiendo en una consideración más visible e importante, según Guido Cervone, profesor de geografía y meteorología y ciencias atmosféricas en Penn State.

Cervone contribuyó a un informe sobre principios y mejores prácticas para el uso ético de AI/ML en la investigación de ciencias espaciales y de la Tierra, publicado por la Unión Geofísica Estadounidense (AGU). Cervone, quien se desempeña como presidente de la Sección de Riesgos Naturales de AGU, fue uno de los seis miembros del comité directivo y uno de los 20 autores del informe.

Las herramientas y métodos de AI/ML están permitiendo avances en la comprensión de la Tierra y sus sistemas en todas las escalas, informando las decisiones críticas de investigadores, organizaciones y agencias gubernamentales. Según Cervone, el informe de AGU, «Uso ético y responsable de AI/ML en las ciencias ambientales, espaciales y de la Tierra», fue diseñado para respaldar estos avances y mitigar los riesgos potenciales.

«Estamos recopilando más datos que nunca sobre todos los aspectos del Universo, desde el núcleo interno de la Tierra hasta las estrellas más alejadas de nuestro sistema solar, y analizamos cada vez más estos datos juntos mediante enfoques computacionales», dijo Brooks Hanson, vicepresidente ejecutivo de ciencia de AGU. «Es un momento increíblemente emocionante para la ciencia, pero un cambio tan meteórico puede generar ambigüedad en la forma en que los científicos realizan su trabajo. Como organización científica de confianza, debemos asegurarnos de que las infinitas posibilidades que plantea la IA/ML se equilibren con estándares éticos claros para garantizar que los investigadores realicen sus estudios de manera responsable de una manera que beneficie a la comunidad científica en general».

Recomendado:  Cómo fijar el eje de las filas y columnas en NumPy

Según AGU, el uso ético de AI/ML en la investigación requiere una nueva forma de pensar sobre los métodos. Por ejemplo, la validación y la replicación son principios básicos de la ciencia, pero esto puede ser complicado para la investigación que utiliza AI/ML, donde el funcionamiento interno de los modelos puede ser opaco. Tradicionalmente, un estudio debe explicar en detalle todo el proceso científico, pero un estudio que utiliza AI/ML solo puede documentar los pasos del proceso, no el cálculo real que resulta. Además, los estudios que utilizan AI/ML deben documentar posibles sesgos, riesgos y daños, especialmente en relación con la promoción de la justicia y la equidad.

«La confianza es un tema crítico para la investigación de IA/ML, pero no es uno que vamos a responder hoy», dijo Cervone, quien también es director asociado del Instituto de Ciencias Computacionales y de Datos de Penn State. «Los métodos de IA/ML de hoy a menudo representan el conocimiento en una forma que es difícil de verificar y comprender y, por lo tanto, carece de algunos de los mecanismos que evalúan la confianza en los hallazgos. El uso de AI/ML requiere una cierta cantidad de confianza que generalmente no se discute con otros métodos analíticos utilizados históricamente en las ciencias de la Tierra. Hay muchas opiniones en este espacio, por lo que está claro que tendremos que continuar la conversación sobre esto en detalle».

AI/ML son herramientas poderosas para evaluar diversos conjuntos de datos, que pueden ayudar a los científicos de la Tierra, el espacio y el medio ambiente a descubrir nuevos conocimientos sobre nuestro planeta y mejorar las predicciones científicas, lo que incluye alertar a las comunidades sobre peligros naturales, como tornados e incendios forestales, o pronosticar futuros relacionados con el clima. riesgos, como el aumento del nivel del mar.

Recomendado:  Segmentación de la penumbra isquémica basada en el aprendizaje automático mediante el uso de métricas de tensor de difusión en un modelo de rata

«Cuando se trata de determinar el sesgo y la incertidumbre en conjuntos de datos y modelos, nuestros investigadores están mejorando cada vez más cómo preparar la documentación para que estos detalles estén disponibles», dijo Shelley Stall, vicepresidenta de liderazgo de ciencia abierta en AGU. «Proporcionalmente, estamos viendo un gran aumento en la investigación de ciencias de la Tierra, el espacio y el medio ambiente utilizando métodos AI/ML. Los principios identificados en este informe proporcionarán pautas éticas para informar a los investigadores y sus organizaciones sobre la importancia de conectar el sesgo y la incertidumbre conocidos con decisiones tomadas sobre la configuración y los flujos de trabajo de AI/ML».

La financiación de esta iniciativa fue proporcionada por la NASA.