Científicos y líderes de la industria tecnológica, incluidos ejecutivos de alto nivel de Microsoft y Google, emitieron una nueva advertencia el martes sobre los peligros que la inteligencia artificial representa para la humanidad. “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, dijo el comunicado publicado en línea.
Sam Altman, director ejecutivo del fabricante de ChatGPT OpenAI, y Geoffrey Hinton, un científico informático conocido como el padrino de la inteligencia artificial, se encontraban entre los cientos de figuras destacadas que firmaron la declaración, que se publicó en el sitio web del Centro para la Seguridad de la IA.
Las preocupaciones sobre los sistemas de inteligencia artificial que superan a los humanos y se vuelven locos se han intensificado con el surgimiento de una nueva generación de chatbots de IA altamente capaces como ChatGPT. Ha enviado a países de todo el mundo a luchar para elaborar regulaciones para la tecnología en desarrollo, con la Unión Europea abriendo el camino con su Ley de IA que se espera que se apruebe a finales de este año.
La última advertencia fue intencionalmente sucinta, solo una oración, para abarcar una amplia coalición de científicos que podrían no estar de acuerdo sobre los riesgos más probables o las mejores soluciones para prevenirlos, dijo Dan Hendrycks, director ejecutivo del Centro sin fines de lucro con sede en San Francisco. para AI Safety, que organizó la mudanza.
“Hay una variedad de personas de todas las mejores universidades en varios campos diferentes que están preocupadas por esto y piensan que es una prioridad mundial”, dijo Hendrycks. “Así que tuvimos que hacer que la gente saliera del clóset, por así decirlo, sobre este tema porque muchos hablaban en silencio entre ellos”.
Más de 1000 investigadores y tecnólogos, incluido Elon Musk, habían firmado una carta mucho más larga a principios de este año pidiendo una pausa de seis meses en el desarrollo de la IA porque, dijeron, plantea “riesgos profundos para la sociedad y la humanidad”.
Esa carta fue una respuesta al lanzamiento de OpenAI de un nuevo modelo de IA, GPT-4, pero los líderes de OpenAI, su socio Microsoft y su rival Google no firmaron y rechazaron el llamado a una pausa voluntaria de la industria.
Por el contrario, la última declaración fue respaldada por los directores de ciencia y tecnología de Microsoft, así como por Demis Hassabis, director ejecutivo del laboratorio de investigación de IA de Google, DeepMind, y dos ejecutivos de Google que lideran sus esfuerzos de política de IA. La declaración no propone remedios específicos, pero algunos, incluido Altman, han propuesto un regulador internacional similar a la agencia nuclear de la ONU.
Algunos críticos se han quejado de que las terribles advertencias sobre los riesgos existenciales expresadas por los fabricantes de IA han contribuido a exagerar las capacidades de sus productos y distraer la atención de los pedidos de regulaciones más inmediatas para controlar sus problemas del mundo real.
Hendrycks dijo que no hay ninguna razón por la que la sociedad no pueda manejar los «daños urgentes y continuos» de los productos que generan nuevos textos o imágenes, al mismo tiempo que comienza a abordar las «catástrofes potenciales a la vuelta de la esquina».
Lo comparó con los científicos nucleares en la década de 1930 advirtiendo a la gente que tuviera cuidado a pesar de que «todavía no hemos desarrollado la bomba».
“Nadie dice que GPT-4 o ChatGPT hoy en día estén causando este tipo de preocupaciones”, dijo Hendrycks. “Estamos tratando de abordar estos riesgos antes de que sucedan, en lugar de tratar de abordar las catástrofes después del hecho”.
La carta también fue firmada por expertos en ciencia nuclear, pandemias y cambio climático. Entre los firmantes se encuentra el escritor Bill McKibben, quien hizo sonar la alarma sobre el calentamiento global en su libro de 1989 “El fin de la naturaleza” y advirtió sobre la IA y las tecnologías asociadas hace dos décadas en otro libro.
“Dado que no hicimos caso a las primeras advertencias sobre el cambio climático hace 35 años, me parece que sería inteligente pensar en esto antes de que todo esté cerrado”, dijo por correo electrónico el martes.
Un académico que ayudó a impulsar la carta dijo que solían burlarse de él por sus preocupaciones sobre el riesgo existencial de la IA, incluso cuando los rápidos avances en la investigación del aprendizaje automático en la última década han superado las expectativas de muchas personas.
David Krueger, profesor asistente de ciencias de la computación en la Universidad de Cambridge, dijo que algunas de las dudas al hablar es que los científicos no quieren que se vea que sugieren que la IA es «conciencia o IA que hace algo mágico», pero dijo que los sistemas de IA no No es necesario ser consciente de sí mismo o establecer sus propios objetivos para representar una amenaza para la humanidad.
“No estoy comprometido con ningún tipo de riesgo en particular. Creo que hay muchas maneras diferentes de que las cosas salgan mal”, dijo Krueger. “Pero creo que históricamente el más controvertido es el riesgo de extinción, específicamente por los sistemas de IA que se salen de control”.
Inscribirse para nuestro boletín semanal para obtener más cobertura de noticias en inglés de EL PAÍS USA Edition