Más de 1000 expertos en inteligencia artificial, investigadores y patrocinadores se han unido a un llamado para una pausa inmediata en la creación de IA «gigantes» durante al menos seis meses, para que las capacidades y los peligros de sistemas como GPT-4 puedan estudiarse y mitigarse adecuadamente. .
La demanda se hace en una carta abierta firmada por los principales actores de la IA, incluidos: Elon Musk, quien cofundó OpenAI, el laboratorio de investigación responsable de ChatGPT y GPT-4; Emad Mostaque, quien fundó Stability AI con sede en Londres; y Steve Wozniak, cofundador de Apple.
Sus signatarios también incluyen ingenieros de Amazon, DeepMind, Google, Meta y Microsoft, así como académicos como el científico cognitivo Gary Marcus.
id=»8976d73a-bd0f-429c-99f2-2294e8ea38d3″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>
“Los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, dice la carta.
“Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
Los autores, coordinados por el grupo de expertos «a largo plazo» Future of Life Institute, citan al propio cofundador de OpenAI, Sam Altman, para justificar sus llamados.
En una publicación de febrero, Altman escribió: “En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos. .”
La carta continuaba: “Estamos de acuerdo. Ese punto es ahora”.
Si los investigadores no pausan voluntariamente su trabajo en modelos de IA más poderosos que GPT-4, el punto de referencia de la carta para modelos «gigantes», entonces «los gobiernos deberían intervenir», dicen los autores.
“Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, agregan.
Desde el lanzamiento de GPT-4, OpenAI ha estado agregando capacidades al sistema de IA con «complementos», dándole la capacidad de buscar datos en la web abierta, planificar vacaciones e incluso pedir comestibles. Pero la empresa tiene que lidiar con el «exceso de capacidad»: el problema de que sus propios sistemas son más poderosos de lo que cree en el momento del lanzamiento.
A medida que los investigadores experimenten con GPT-4 durante las próximas semanas y meses, es probable que descubran nuevas formas de «impulsar» el sistema que mejoren su capacidad para resolver problemas difíciles.
Un descubrimiento reciente fue que la IA es notablemente más precisa al responder preguntas si primero se le dice que lo haga «al estilo de un experto informado».
El llamado a una regulación estricta contrasta con el libro blanco de regulación de IA del gobierno del Reino Unido, publicado el miércoles, que no contiene nuevos poderes en absoluto.
data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.NewsletterSignupBlockElement» class=» dcr-173mewl»>saltar la promoción del boletín anterior
después de la promoción del boletín
En cambio, dice el gobierno, la atención se centra en la coordinación de los reguladores existentes, como la Autoridad de Competencia y Mercados y el Ejecutivo de Salud y Seguridad, ofreciendo cinco «principios» a través de los cuales deberían pensar sobre la IA.
“Nuestro nuevo enfoque se basa en principios sólidos para que las personas puedan confiar en las empresas para liberar esta tecnología del mañana”, dijo la secretaria de ciencia, innovación y tecnología, Michelle Donelan.
El Instituto Ada Lovelace estuvo entre los que criticaron el anuncio. “El enfoque del Reino Unido tiene brechas significativas, que podrían dejar daños sin abordar, y no tiene suficiente poder en relación con la urgencia y la escala del desafío”, dijo Michael Birtwistle, quien dirige las leyes y políticas de datos e IA en el instituto de investigación.
“El cronograma del gobierno de un año o más para la implementación dejará los riesgos sin abordar al igual que los sistemas de IA se están integrando al ritmo de nuestra vida diaria, desde los motores de búsqueda hasta el software de la suite ofimática”.
Los laboristas se unieron a las críticas, con la secretaria de cultura en la sombra, Lucy Powell, acusando al gobierno de “defraudar su parte del trato”.
Ella dijo: “Esta regulación tardará meses, si no años, en entrar en vigencia. Mientras tanto, ChatGPT, Bard de Google y muchos otros están haciendo de la IA una parte habitual de nuestra vida cotidiana.
“El gobierno corre el riesgo de reforzar las brechas en nuestro sistema regulatorio existente y hacer que el sistema sea enormemente complejo para que las empresas y los ciudadanos naveguen, al mismo tiempo que están debilitando esos cimientos a través de su próxima factura de datos”.