Saltar al contenido

Elon Musk y más de 1.000 investigadores firman una carta pidiendo pausar el desarrollo de las IA avanzadas | Empresas

30 de marzo de 2023

El fundador y multimillonario dueño de Tesla, Elon Musk, ha hecho un llamamiento junto a otros más de 1.000 investigadores tecnológicos para pausar el desarrollo de inteligencias artificiales avanzadas durante al menos seis meses con el fin de frenar lo que han denominado “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”.

La carta, impulsada por Future of Life Institute, una organización sin ánimo de lucro creada para vigilar la forma en la que se desarrolla la tecnología financiada en gran parte por el propio Musk, ha recibido más de 1.100 firmas en pocas horas y ha tenido que bloquear la inscripción ante la gran afluencia de solicitudes. Además de Musk, aparecen nombres como el del cofundador de Apple, Steve Wozniak, Jaan Tallin, cofundador de Skype y el de ingenieros de Meta o Microsoft entre otros integrantes del sector.

“Los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad. Por desgracia, no se está desarrollando con el nivel de planificación y cuidado adecuado”, arranca exponiendo el documento. Según Future of Life, se ha producido una competición para alcanzar la supremacía en este campo. En los últimos meses, organizaciones como OpenAI con su Chat GPT han demostrado las capacidades potenciales de la IA. Las grandes tecnológicas, principalmente Alphabet, Baidu, Meta y Microsoft, han intensificado sus apuestas por esta tecnología. “Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con confiabilidad”.

“Por esto, hacemos un llamamiento dirigido a todos los laboratorios de inteligencia artificial para que pausen de forma inmediata los desarrollos más potentes que GPT-4 al menos seis meses. Esta pausa deberá ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no llega rápidamente, los Gobiernos afectaron dar un paso al frente e imponerla”, escriben.

Recomendado:  Google puede hacer preguntas sobre la ética de la IA, pero no quiere respuestas | Google

La organización puntualiza que no están pidiendo que se deje de investigar la IA, sino que se haga de otra manera distinta a la forma actual que se está siguiendo. “Los laboratorios de inteligencia artificial y los expertos independientes aprovecharon la pausa para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad para los diseños más avanzados que sean auditados y asegurados por expertos independientes”. Asimismo, pidan a los Gobiernos que aceleren “dramáticamente” unos marcos regulatorios “capaces” de vigilar el desarrollo de estos sistemas y de configurar protocolos para resarcir los posibles daños que puedan causar.

Precisamente, la Unión Europea está preparando una regulación sobre la inteligencia artificial conocida como la Ley de Inteligencia Artificial. Según explica el Foro Económico Mundial, esta regulación europea está basada en un sistema de escalas de riesgos. En el riesgo bajo estarían por ejemplo las IA de videojuegos, que podrían funcionar con muy pocas exigencias regulatorias.

En el lado opuesto de la balanza, se encuentran las IA “de riesgo inaceptable”. Aquí se enmarcarían los sistemas de puntuación social o los de identificación biométrica en tiempo real en espacios públicos, que estarían prohibidos. Los sistemas de “alto riesgo” en cambio sí están permitidos, pero los creadores deberán cumplir con unas normas que exigirán someterse a una vigilancia “rigurosa”. En esta categoría de alto riesgo se incluyen vehículos autónomos, dispositivos médicos o maquinaria de infraestructuras críticas.

La Comisión Europea adoptará la Ley de Inteligencia Artificial por primera vez en abril de 2021. El Consejo Europeo adoptará una posición común a finales de 2022 y, por el momento, la legislación se encuentra en fase de debate dentro del Parlamento Europeo.

Recomendado:  Por qué la gente cree en las teorías de la conspiración de Covid: ¿podría el folklore tener la respuesta? | Coronavirus

Aunque advierta sus peligros, las empresas de Elon Musk han trabajado intensamente en el desarrollo de la inteligencia artificial. Así, han trabajado en sistemas de conducción autónoma y en la creación de robots humanoides. Musk cofundó OpenAI, la firma detrás del exitoso ChatGPT, pero en 2018 abandonó la organización y con el paso del tiempo se ha ido volviendo cada vez más crítico con ella.

Sigue toda la informacion de cinco dias es Facebook, Gorjeo y LinkedIna menudo nuestro boletín Agenda de Cinco Días

La agenda de Cinco Días

Las citas económicas más importantes del día, con las claves y el contexto para entender su alcance

Recibela