Saltar al contenido

Bueno, yo nunca: la IA es muy competente en el diseño de agentes nerviosos | Juan Naughton

11 de febrero de 2023

HHay una historia que los evangelistas de la llamada IA ​​(inteligencia artificial), o aprendizaje automático (ML), preferirían que no se detuviera. Viene de las páginas de Naturaleza Máquina Inteligencia, una revista tan sobria como podría desear encontrar en una biblioteca académica. Está protagonizada por cuatro científicos investigadores: Fabio Urbina, Filippa Lentzos, Cédric Invernizzi y Sean Ekins, que trabajan para una empresa farmacéutica que construye sistemas de aprendizaje automático para encontrar «nuevos inhibidores terapéuticos», sustancias que interfieren con una reacción química, el crecimiento u otra actividad biológica. involucrados en enfermedades humanas.

La esencia de la investigación farmacéutica es descubrimiento de medicamento. Se reduce a la búsqueda de moléculas que puedan tener usos terapéuticos y, dado que existen miles de millones de posibilidades potenciales, hace que la búsqueda de agujas en un pajar parezca un juego de niños. Dado eso, la llegada de la tecnología ML, que permite a las máquinas buscar entre miles de millones de posibilidades, fue un sueño hecho realidad y ahora está integrada en todas partes de la industria.

Así es como funciona, según lo descrito por el equipo que descubrió la halicina, una molécula que actuó contra las bacterias resistentes a los medicamentos que causan cada vez más dificultades en los hospitales. “Entrenamos un modelo de aprendizaje profundo en una colección de [around] 2.500 moléculas para las que inhibían el crecimiento de mi coli in vitro. Este modelo aprendió la relación entre la estructura química y la actividad antibacteriana de una manera que nos permitió mostrar los conjuntos de modelos de sustancias químicas que nunca antes había visto y luego podría hacer predicciones sobre si estas nuevas moléculas… poseían actividad antibacteriana contra mi coli O no.»

Una vez entrenados, configuraron el modelo para explorar una biblioteca diferente de 6.000 moléculas y dieron con una que originalmente se había considerado solo como una posibilidad antidiabética. Pero cuando se probó contra docenas de las cepas bacterianas más problemáticas, se descubrió que funcionaba y que tenía una toxicidad prevista más baja en humanos. En un buen toque, lo bautizaron halicin después de la IA en Kubrick. 2001: una odisea del espacio.

Este es el tipo de trabajo que Urbina y sus colegas estaban haciendo en su laboratorio: buscar moléculas que cumplieran con dos criterios: posibilidades terapéuticas positivas y baja toxicidad para los humanos. Su modelo generativo penalizó la toxicidad prevista y recompensó la actividad terapéutica prevista. Luego fueron invitados a una conferencia del Instituto Federal Suizo para la Protección Nuclear, Biológica y Química sobre desarrollos tecnológicos que podrían tener implicaciones para la Convención sobre Armas Químicas/Biológicas. Los organizadores de la conferencia querían un documento sobre cómo se podría hacer un mal uso del ML.

Recomendado:  Nuevo algoritmo para el acolchado moderno

“Es algo en lo que nunca antes habíamos pensado”, recordó Urbina. “Pero fue muy fácil darme cuenta de que, mientras construimos estos modelos de aprendizaje automático para mejorar cada vez más en la predicción de la toxicidad para evitar la toxicidad, todo lo que tenemos que hacer es girar el interruptor y decir: ‘Sabes, en lugar de alejarnos de la toxicidad, ¿qué pasa si vamos hacia la toxicidad?’”

Así que apretaron el interruptor y en el proceso abrieron una perspectiva de pesadilla para la humanidad. En menos de seis horas, el modelo generó 40.000 moléculas que se ubicaron dentro del umbral establecido por los investigadores. La máquina diseñó VX y muchos otros agentes de guerra química conocidos, confirmados por separado con estructuras en bases de datos químicas públicas. También se diseñaron muchas moléculas nuevas que parecían igualmente plausibles, algunas de las cuales se predijo que serían más tóxicas que los agentes de guerra química conocidos públicamente. «Esto fue inesperado», escribieron los investigadores, «porque los conjuntos de datos que usamos para entrenar la IA no incluían estos agentes nerviosos… Al invertir el uso de nuestros modelos de aprendizaje automático, transformamos nuestro modelo generativo inocuo de una herramienta útil de medicina a un generador de moléculas probablemente mortales”.

Reflexione sobre esto por un momento: algunas de las moléculas «descubiertas» eran potencialmente más tóxicas que el agente nervioso VX, que es uno de los compuestos más letales que se conocen. VX fue desarrollado por el Laboratorio de Ciencia y Tecnología de Defensa (DSTL) del Reino Unido a principios de la década de 1950. Es el tipo de arma que, anteriormente, solo podía ser desarrollada por laboratorios financiados por el estado como DSTL. Pero ahora, un geek maligno con un montón de unidades de procesamiento de gráficos y acceso a una base de datos molecular podría encontrar algo similar. Y aunque todavía se necesitarían algunos conocimientos especializados de química y toxicología para convertir una estructura molecular en un arma viable, ahora hemos aprendido, como reconocen los propios investigadores, que los modelos ML «bajan drásticamente los umbrales técnicos».

Recomendado:  Inteligencia artificial para COVID-19: ¿salvador o saboteador?

Dos cosas me llaman la atención de esta historia. La primera es que los investigadores “nunca habían pensado realmente en” los posibles usos malignos de su tecnología. En eso, probablemente eran típicos de las legiones de ingenieros que trabajan en ML en laboratorios industriales. La segunda es que, si bien ML claramente proporciona un poderoso aumento de las capacidades humanas (dirección asistida para la mente, por así decirlo), el hecho de que esta sea una buena noticia para la humanidad depende de las mentes de quién esté aumentando.

lo que he estado leyendo

Soluciones climáticas falsas
Aljazeera.com ha publicado We Are «Greening» Ourselves to Extinction, un agudo ensayo de Vijay Kolinjivadi, de la Universidad de Amberes.

Tiempo de crecer
Molly White está entusiasmada en su boletín Substack, Sam Bankman-Fried Is Not a Child.

Dinero gracioso
Mihir A Desai ha escrito un excelente New York Times pieza, El colapso criptográfico y el fin del pensamiento mágico