Cuando se trata de predecir desastres provocados por eventos extremos (piense en terremotos, pandemias u «olas rebeldes» que podrían destruir estructuras costeras), el modelado computacional enfrenta un desafío casi insuperable: estadísticamente hablando, estos eventos son tan raros que simplemente no hay suficientes datos. en ellos para usar modelos predictivos para pronosticar con precisión cuándo sucederán a continuación.
Pero un equipo de investigadores de la Universidad de Brown y el Instituto de Tecnología de Massachusetts dice que no tiene por qué ser así.
En un nuevo estudio en Naturaleza Ciencias Computacionaleslos científicos describen cómo combinaron algoritmos estadísticos, que necesitan menos datos para hacer predicciones precisas y eficientes, con una poderosa técnica de aprendizaje automático desarrollada en Brown y la entrenaron para predecir escenarios, probabilidades y, a veces, incluso la línea de tiempo de eventos raros a pesar de la falta de registro histórico sobre ellos.
Al hacerlo, el equipo de investigación descubrió que este nuevo marco puede proporcionar una forma de eludir la necesidad de cantidades masivas de datos que tradicionalmente se necesitan para este tipo de cálculos, en lugar de reducir esencialmente el gran desafío de predecir eventos raros a una cuestión de calidad. sobre cantidad.
“Tienes que darte cuenta de que estos son eventos estocásticos”, dijo George Karniadakis, profesor de matemáticas aplicadas e ingeniería en Brown y autor del estudio. “Un estallido de pandemia como el COVID-19, un desastre ambiental en el Golfo de México, un terremoto, enormes incendios forestales en California, una ola de 30 metros que volca un barco: estos son eventos raros y porque son raros, no lo hacemos. tener muchos datos históricos. No tenemos suficientes muestras del pasado para predecirlas en el futuro. La pregunta que abordamos en el documento es: ¿Cuál es la mejor información posible que podemos usar para minimizar la cantidad de puntos de datos que necesitamos?
Los investigadores encontraron la respuesta en una técnica de muestreo secuencial llamada aprendizaje activo. Estos tipos de algoritmos estadísticos no solo pueden analizar la entrada de datos en ellos, sino que, lo que es más importante, pueden aprender de la información para etiquetar nuevos puntos de datos relevantes que son igual o incluso más importantes para el resultado que se está calculando. En el nivel más básico, permiten hacer más con menos.
Eso es fundamental para el modelo de aprendizaje automático que los investigadores usaron en el estudio. Llamado DeepOnet, el modelo es un tipo de red neuronal artificial, que utiliza nodos interconectados en capas sucesivas que imitan aproximadamente las conexiones realizadas por las neuronas en el cerebro humano. DeepOnet es conocido como un operador neuronal profundo. Es más avanzado y poderoso que las típicas redes neuronales artificiales porque en realidad son dos redes neuronales en una, procesando datos en dos redes paralelas. Esto le permite analizar conjuntos gigantes de datos y escenarios a una velocidad vertiginosa para escupir conjuntos igualmente masivos de probabilidades una vez que aprende lo que está buscando.
El cuello de botella con esta poderosa herramienta, especialmente en lo que se refiere a eventos raros, es que los operadores neuronales profundos necesitan toneladas de datos para estar capacitados para realizar cálculos que sean efectivos y precisos.
En el documento, el equipo de investigación muestra que, combinado con técnicas de aprendizaje activo, el modelo DeepOnet puede entrenarse sobre qué parámetros o precursores buscar que conduzcan al evento desastroso que alguien está analizando, incluso cuando no hay muchos puntos de datos.
“El objetivo no es tomar todos los datos posibles y ponerlos en el sistema, sino buscar de manera proactiva eventos que signifiquen eventos raros”, dijo Karniadakis. “Puede que no tengamos muchos ejemplos del evento real, pero podemos tener esos precursores. A través de las matemáticas, los identificamos, lo que junto con hechos reales nos ayudarán a entrenar a este operador ávido de datos”.
En el artículo, los investigadores aplican el enfoque para identificar parámetros y diferentes rangos de probabilidades de picos peligrosos durante una pandemia, encontrar y predecir olas rebeldes y estimar cuándo un barco se partirá por la mitad debido al estrés. Por ejemplo, con las olas rebeldes, que son más del doble del tamaño de las olas circundantes, los investigadores descubrieron que podían descubrir y cuantificar cuándo se formarán las olas rebeldes al observar las condiciones probables de las olas que interactúan de forma no lineal con el tiempo, lo que lleva a olas a veces tres veces su tamaño original.
Los investigadores descubrieron que su nuevo método superó los esfuerzos de modelado más tradicionales y creen que presenta un marco que puede descubrir y predecir de manera eficiente todo tipo de eventos raros.
En el documento, el equipo de investigación describe cómo los científicos deberían diseñar futuros experimentos para que puedan minimizar los costos y aumentar la precisión de los pronósticos. Karniadakis, por ejemplo, ya está trabajando con científicos ambientales para usar el método novedoso para pronosticar eventos climáticos, como huracanes.
El estudio fue dirigido por Ethan Pickering y Themistoklis Sapsis del MIT. DeepOnet fue presentado en 2019 por Karniadakis y otros investigadores de Brown. Actualmente están buscando una patente para la tecnología. El estudio fue apoyado con fondos de la Agencia de Proyectos de Investigación Avanzada de Defensa, el Laboratorio de Investigación de la Fuerza Aérea y la Oficina de Investigación Naval.
Temas
Impulsado por datos de InsurTech
Interesado en Ai?
Recibe alertas automáticas para este tema.