Las computadoras han podido procesar rápidamente imágenes 2D durante algún tiempo. Su teléfono celular puede tomar fotografías digitales y manipularlas de varias maneras. Sin embargo, es mucho más difícil procesar una imagen en tres dimensiones y hacerlo de manera oportuna. Las matemáticas son más complejas y procesar esos números, incluso en una supercomputadora, lleva tiempo.
Ese es el desafío que un grupo de científicos del Laboratorio Nacional Argonne del Departamento de Energía de EE. UU. (DOE) está trabajando para superar. La inteligencia artificial ha surgido como una solución versátil a los problemas que plantea el procesamiento de big data. Para los científicos que utilizan Advanced Photon Source (APS), una instalación para usuarios de la Oficina de Ciencias del DOE en Argonne, para procesar imágenes en 3D, puede ser la clave para convertir los datos de rayos X en formas visibles y comprensibles a un ritmo mucho más rápido. Un gran avance en esta área podría tener implicaciones para la astronomía, la microscopía electrónica y otras áreas de la ciencia que dependen de grandes cantidades de datos 3D.
El equipo de investigación, que incluye a científicos de tres divisiones de Argonne, ha desarrollado un nuevo marco computacional llamado 3D-CDI-NN, y ha demostrado que puede crear visualizaciones 3D a partir de datos recopilados en el APS cientos de veces más rápido que los métodos tradicionales. La investigación del equipo se publicó en Reseñas de física aplicada, una publicación del Instituto Americano de Física.
CDI significa imágenes de difracción coherente, una técnica de rayos X que implica hacer rebotar haces de rayos X ultrabrillantes en las muestras. Los detectores recopilarán esos rayos de luz como datos, y se necesita un esfuerzo computacional para convertir esos datos en imágenes. Parte del desafío, explica Mathew Cherukara, líder del grupo de Ciencias Computacionales de Rayos X en la División de Ciencias de Rayos X (XSD) de Argonne, es que los detectores solo capturan parte de la información de los haces.
Pero hay información importante contenida en los datos faltantes, y los científicos dependen de las computadoras para completar esa información. Como señala Cherukara, si bien esto lleva algo de tiempo en 2D, lleva más tiempo hacerlo con imágenes en 3D. La solución, entonces, es entrenar una inteligencia artificial para reconocer los objetos y los cambios microscópicos que sufren directamente a partir de los datos en bruto, sin tener que completar la información que falta.
Para hacer esto, el equipo comenzó con datos de rayos X simulados para entrenar la red neuronal. La NN en el título del marco, una red neuronal es una serie de algoritmos que pueden enseñar a una computadora a predecir resultados en función de los datos que recibe. Henry Chan, autor principal del artículo e investigador postdoctoral en el Centro de Materiales a Nanoescala (CNM), una instalación para usuarios de la Oficina de Ciencias del DOE en Argonne, dirigió esta parte del trabajo.
«Usamos simulaciones por computadora para crear cristales de diferentes formas y tamaños, y los convertimos en imágenes y patrones de difracción para que la red neuronal los aprendiera», dijo Chan. «La facilidad de generar rápidamente muchos cristales realistas para el entrenamiento es el beneficio de las simulaciones».
Este trabajo se realizó utilizando los recursos de la unidad de procesamiento de gráficos en el Laboratorio Conjunto de Evaluación de Sistemas de Argonne, que implementa bancos de pruebas de vanguardia para permitir la investigación sobre plataformas y capacidades informáticas emergentes de alto rendimiento.
Una vez que la red está entrenada, dice Stephan Hruszkewycz, físico y líder de grupo de la División de Ciencia de Materiales de Argonne, puede acercarse bastante a la respuesta correcta, con bastante rapidez. Sin embargo, todavía hay espacio para el refinamiento, por lo que el marco 3D-CDI-NN incluye un proceso para que la red llegue hasta allí. Hruszkewycz, junto con el estudiante graduado de la Universidad de Northwestern, Saugat Kandel, trabajaron en este aspecto del proyecto, lo que reduce la necesidad de pasos iterativos que consumen mucho tiempo.
«La División de Ciencia de Materiales se preocupa por la difracción coherente porque puede ver materiales en escalas de longitud de pocos nanómetros, unas 100.000 veces más pequeñas que el ancho de un cabello humano, con rayos X que penetran en los entornos», dijo Hruszkewycz. «Este artículo es una demostración de estos métodos avanzados y facilita enormemente el proceso de obtención de imágenes. Queremos saber qué es un material y cómo cambia con el tiempo, y esto nos ayudará a obtener mejores fotografías del mismo a medida que realizamos las mediciones. «
Como paso final, la capacidad de 3D-CDI-NN para completar la información faltante y obtener una visualización en 3D se probó en datos de rayos X reales de pequeñas partículas de oro, recolectadas en la línea de luz 34-ID-C en el APS. El resultado es un método computacional que es cientos de veces más rápido en datos simulados y casi tan rápido en datos APS reales. Las pruebas también mostraron que la red puede reconstruir imágenes con menos datos de los que normalmente se requieren para compensar la información no capturada por los detectores.
El siguiente paso de esta investigación, según Chan, es integrar la red en el flujo de trabajo del APS, de modo que aprenda de los datos a medida que se toman. Si la red aprende de los datos en la línea de luz, dijo, mejorará continuamente.
Para este equipo, también hay un elemento de tiempo en esta investigación. Como señala Cherukara, se está trabajando en una actualización masiva del APS, y la cantidad de datos generados ahora aumentará exponencialmente una vez que se complete el proyecto. El APS actualizado generará haces de rayos X que son hasta 500 veces más brillantes, y la coherencia del haz, la característica de la luz que le permite difractar de una manera que codifica más información sobre la muestra, aumentará considerablemente. .
Eso significa que, si bien ahora se necesitan de dos a tres minutos para recopilar datos de imágenes de difracción coherentes de una muestra y obtener una imagen, la parte de recopilación de datos de ese proceso pronto será hasta 500 veces más rápida. El proceso de convertir esos datos en una imagen utilizable también debe ser cientos de veces más rápido de lo que es ahora para mantenerse al día.
«Para hacer un uso completo de lo que será capaz de hacer el APS actualizado, tenemos que reinventar el análisis de datos», dijo Cherukara. «Nuestros métodos actuales no son suficientes para mantenernos al día. El aprendizaje automático puede hacer un uso completo e ir más allá de lo que es posible actualmente».
Además de Chan, Cherukara y Hruszkewycz, los autores del artículo incluyen a Subramanian Sankaranarayanan y Ross Harder, ambos de Argonne; Youssef Nashed, del Laboratorio Nacional Acelerador de SLAC; y Saugat Kandel de la Universidad Northwestern.