Saltar al contenido

Un riesgo existencial para la humanidad

27 de junio de 2023

Para que las máquinas superinteligentes destruyan a la humanidad, necesitan una forma física. (Figurativo)

París, Francia:

Las advertencias llegan desde todos los ángulos: la inteligencia artificial representa un riesgo existencial para la humanidad y debe ser encadenada antes de que sea demasiado tarde.

Pero, ¿cuáles son estos escenarios de desastre y cómo se supone que las máquinas acabarán con la humanidad?

Clips de papel de la fatalidad

La mayoría de los escenarios de desastre comienzan en el mismo lugar: las máquinas superarán las capacidades humanas, escaparán al control humano y se negarán a ser apagadas.

“Una vez que tengamos máquinas que tengan como objetivo la autopreservación, estaremos en problemas”, dijo el académico de AI Yoshua Bengio en un evento este mes.

Pero debido a que estas máquinas aún no existen, imaginar cómo podrían condenar a la humanidad a menudo se deja en manos de la filosofía y la ciencia ficción.

El filósofo Nick Bostrom ha escrito sobre una «explosión de inteligencia» que dice que ocurrirá cuando las máquinas superinteligentes comiencen a diseñar sus propias máquinas.

Ilustró la idea con la historia de una IA superinteligente en una fábrica de clips.

La IA tiene el objetivo final de maximizar la producción de clips y, por lo tanto, «procede convirtiendo primero la Tierra y luego trozos cada vez más grandes del universo observable en clips».

Las ideas de Bostrom han sido descartadas por muchos como ciencia ficción, sobre todo porque argumentó por separado que la humanidad es una simulación por computadora y apoyó teorías cercanas a la eugenesia.

También se disculpó recientemente después de que se descubriera un mensaje racista que envió en la década de 1990.

Recomendado:  ¿Pueden las palomas igualar el ingenio con la inteligencia artificial? Usando el aprendizaje asociativo, de alguna manera el picotazo de una paloma puede reflejar alta tecnología

Sin embargo, sus pensamientos sobre la IA han tenido una gran influencia, inspirando tanto a Elon Musk como al profesor Stephen Hawking.

El terminador

Si las máquinas superinteligentes van a destruir a la humanidad, seguramente necesitan una forma física.

El cyborg de ojos rojos de Arnold Schwarzenegger, enviado desde el futuro para acabar con la resistencia humana por una IA en la película «The Terminator», ha demostrado ser una imagen seductora, particularmente para los medios.

Pero los expertos han descartado la idea.

“Es poco probable que este concepto de ciencia ficción se convierta en realidad en las próximas décadas, si es que alguna vez lo hace”, escribió el grupo de campaña Stop Killer Robots en un informe de 2021.

Sin embargo, el grupo ha advertido que dar a las máquinas el poder de tomar decisiones sobre la vida o la muerte es un riesgo existencial.

La experta en robots Kerstin Dautenhahn, de la Universidad de Waterloo en Canadá, restó importancia a esos temores.

Ella le dijo a AFP que era poco probable que la IA le diera a las máquinas mayores capacidades de razonamiento o las infundiera el deseo de matar a todos los humanos.

«Los robots no son malos», dijo, aunque admitió que los programadores pueden hacer que hagan cosas malas.

Químicos más letales

Un escenario menos abiertamente de ciencia ficción ve a «malos actores» usando IA para crear toxinas o nuevos virus y liberarlos en el mundo.

Los modelos de lenguaje grande como GPT-3, que se usó para crear ChatGPT, resultan ser extremadamente buenos para inventar nuevos agentes químicos horribles.

Un grupo de científicos que usaba IA para ayudar a descubrir nuevos medicamentos realizó un experimento en el que ajustaron su IA para buscar moléculas dañinas.

Recomendado:  La búsqueda de empleo es suficientemente estresante y humillante. Ahora los robots juzgan nuestros currículums | Tecnología

Consiguieron generar 40.000 agentes potencialmente venenosos en menos de seis horas, según informa la revista Nature Machine Intelligence.

La experta en inteligencia artificial Joanna Bryson de la Hertie School en Berlín dijo que podía imaginarse a alguien descubriendo una forma de propagar un veneno como el ántrax más rápidamente.

«Pero no es una amenaza existencial», dijo a la AFP. «Es solo un arma horrible, terrible».

especies superadas

Las reglas de Hollywood dictan que los desastres de época deben ser repentinos, inmensos y dramáticos, pero ¿y si el fin de la humanidad fuera lento, silencioso y no definitivo?

«En el extremo más sombrío, nuestra especie podría llegar a su fin sin sucesor», dice el filósofo Huw Price en un video promocional para el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge.

Pero dijo que había «posibilidades menos sombrías» en las que los humanos mejorados con tecnología avanzada podrían sobrevivir.

«La especie puramente biológica eventualmente llega a su fin, en el sentido de que no hay humanos alrededor que no tengan acceso a esta tecnología habilitadora», dijo.

El apocalipsis imaginado a menudo se enmarca en términos evolutivos.

Stephen Hawking argumentó en 2014 que, en última instancia, nuestra especie ya no podrá competir con las máquinas de inteligencia artificial y le dijo a la BBC que podría «significar el fin de la raza humana».

Geoffrey Hinton, quien pasó su carrera construyendo máquinas que se asemejan al cerebro humano, últimamente para Google, habla en términos similares de «superinteligencias» simplemente superando a los humanos.

Recientemente le dijo a la emisora ​​estadounidense PBS que era posible que «la humanidad sea solo una fase pasajera en la evolución de la inteligencia».

Recomendado:  Modelo de lenguaje natural impulsa el diseño de proteínas con la creación de enzimas activas

(Excepto por el titular, esta historia no ha sido editada por el personal de NDTV y se publica desde un feed sindicado).