Saltar al contenido

Advertencia de inteligencia artificial sobre la extinción humana: todo lo que necesita saber

1 de junio de 2023

La inteligencia artificial podría conducir a la extinción de la humanidad y los riesgos deben tratarse con la misma urgencia que la guerra nuclear, advirtieron decenas de expertos, incluidos los pioneros que la desarrollaron.

Aquí, la agencia de noticias PA echa un vistazo a la última situación.

¿Qué es la IA?

La inteligencia artificial (IA) es la inteligencia demostrada por las máquinas, a diferencia de la inteligencia natural que muestran tanto los animales como los humanos.

Los ejemplos de IA incluyen software de reconocimiento facial y asistentes de voz digitales como Siri de Apple y Alexa de Amazon.

ChatGPT (Alamy/PA)

¿Cómo podría la IA conducir a la extinción humana?

La IA podría convertirse en un arma, por ejemplo, para desarrollar nuevas armas químicas y mejorar el combate aéreo, dice el Centro para la Seguridad de la IA con sede en San Francisco en su sitio web. El centro emitió la declaración sobre el riesgo de extinción de la IA que fue firmada por los líderes de la industria.

El centro enumera otros riesgos en su sitio web, incluida la IA que podría volverse peligrosa si no está alineada con los valores humanos.

También dice que los humanos podrían volverse dependientes de las máquinas si se les delegan cada vez más tareas importantes.

Y en el futuro, la IA podría ser engañosa, no por malicia, sino porque podría ayudar a los agentes a lograr sus objetivos. Puede ser más eficiente obtener la aprobación humana a través del engaño que ganándola legítimamente.

¿Quiénes son las personas que dicen que la IA podría acabar con la humanidad?

Recomendado:  14 LLM de código abierto que necesita saber

Docenas de expertos han firmado la carta, que fue organizada por el Centro para la Seguridad de la IA, una organización sin fines de lucro que tiene como objetivo «reducir los riesgos a escala social de la IA».

Dos de los tres “padrinos” de la IA firmaron la carta: Geoffrey Hinton, profesor emérito de informática en la Universidad de Toronto, y Yoshua Bengio, profesor de informática en la Universidad de Montreal/Mila.

El Dr. Hinton renunció a su trabajo en Google a principios de este mes y dijo que, en las manos equivocadas, la IA podría usarse para dañar a las personas y significar el fin de la humanidad.

Los firmantes también incluyen a Sam Altman e Ilya Sutskever, director ejecutivo y cofundador, respectivamente, del desarrollador OpenAI de ChatGPT.

La lista también incluye a decenas de académicos, jefes sénior de empresas como Google DeepMind, el cofundador de Skype y los fundadores de la empresa de inteligencia artificial Anthropic.

Elon Musk ha expresado previamente su preocupación (Brian Lawless/PA)

A principios de este año, más de 1000 investigadores y tecnólogos, incluido Elon Musk, habían firmado una carta mucho más larga en la que pedían una pausa de seis meses en el desarrollo de la IA.

¿Qué se puede hacer para regularlo y frenar estos escenarios?

El Centro para la Seguridad de la IA dice que reduce los riesgos de la IA a través de la investigación, la construcción de campo y la promoción.

La investigación de IA incluye: identificar y eliminar comportamientos peligrosos; estudiar conductas engañosas y poco éticas en el mismo; entrenar a la IA para que se comporte moralmente; y mejorando su seguridad y confiabilidad.

Recomendado:  Sherry Turkle: 'La pandemia nos ha demostrado que la gente necesita relaciones' | Psicología

El centro dice que también hace crecer el campo de investigación de seguridad de la IA a través de la financiación, la infraestructura de investigación y los recursos educativos.

Y aumenta la conciencia pública sobre los riesgos y la seguridad de la IA, brinda experiencia técnica para informar la formulación de políticas y asesora a los líderes de la industria sobre estructuras y prácticas para priorizar la seguridad de la IA.

¿Qué están haciendo los países?

El primer ministro británico, Rishi Sunak, retuiteó la declaración del Centro para la Seguridad de la IA el miércoles y dijo que el gobierno la está “observando con mucho cuidado”.

Dijo que lo planteó en la cumbre del G7 y que volverá a discutir el tema cuando visite Estados Unidos.

Primer Ministro Rishi Sunak (Jordan Pettitt/PA)

Su tuit decía: “El gobierno está analizando esto con mucho cuidado. La semana pasada hice hincapié en las empresas de IA sobre la importancia de establecer medidas de seguridad para que el desarrollo sea seguro y protegido. Pero tenemos que trabajar juntos. Es por eso que lo planteé en el @G7 y lo haré nuevamente cuando visite los EE. UU.”

La semana pasada, el Sr. Sunak habló sobre la importancia de garantizar que se establezcan las «barandas protectoras» correctas para proteger contra peligros potenciales, que van desde la desinformación y la seguridad nacional hasta las «amenazas existenciales».

Y esta semana, el gobernante Partido Comunista de China pidió medidas de seguridad nacional reforzadas, destacando los riesgos que plantean los avances en IA.

¿Cuáles son los beneficios de la IA?

La IA puede realizar tareas que salvan vidas, como algoritmos que analizan imágenes médicas, incluidas radiografías, escaneos y ultrasonidos, ayudando a los médicos a identificar y diagnosticar enfermedades como el cáncer y las afecciones cardíacas con mayor precisión y rapidez.

Recomendado:  Muse Tax, basado en GPT de OpenAI, apunta a códigos de impuestos

Un ejemplo de un beneficio de la IA es la nueva tecnología cerebral que ayudó a un hombre que quedó paralizado en un accidente de bicicleta hace más de una década a ponerse de pie y caminar de nuevo.

Neurocientíficos de la Ecole Polytechnique Federale de Lausanne (EPFL) en Suiza han creado lo que llaman un “puente digital inalámbrico” que es capaz de restaurar la conexión perdida entre el cerebro y la médula espinal.

Este puente digital es una interfaz cerebro-columna que ha permitido a Gert-Jan Oskam recuperar el control sobre el movimiento de sus piernas, lo que le permite ponerse de pie, caminar e incluso subir escaleras.