Las autoridades de EE. UU. y Europa deben actuar rápidamente para proteger a las personas contra las amenazas que plantean los modelos de inteligencia artificial GPT y ChatGPT de OpenAI, según han instado los grupos de la sociedad civil en un retroceso coordinado contra la rápida proliferación de la tecnología.
El jueves, el Centro de IA y Política Digital de EE. UU. (CAIDP) presentó una queja formal ante la Comisión Federal de Comercio, pidiendo a la agencia que «detenga el despliegue comercial adicional de GPT por parte de OpenAI» hasta que se hayan establecido medidas de seguridad para evitar que ChatGPT engañe. personas y perpetuando prejuicios.
La queja de CAIDP se produjo solo un día después de la publicación de una carta abierta muy publicitada que pedía una moratoria de seis meses en el desarrollo de modelos de IA de próxima generación. Aunque la queja hace referencia a esa carta, el grupo señaló hace 10 días que instaría a la FTC a investigar OpenAI y ChatGPT, y «establecer una moratoria sobre el lanzamiento de más versiones comerciales de GPT hasta que se establezcan las salvaguardas adecuadas».
Al mismo tiempo que la queja de CAIDP llegaba a la FTC, la Organización Europea de Consumidores (BEUC) hizo un llamado a los reguladores europeos, tanto a nivel nacional como de la UE, para iniciar investigaciones sobre ChatGPT.
“A pesar de todos los beneficios que la IA puede traer a nuestra sociedad, actualmente no estamos lo suficientemente protegidos del daño que puede causar a las personas”, dijo la directora general adjunta de BEUC, Ursula Pachl. “En solo unos meses, hemos visto una adopción masiva de ChatGPT y esto es solo el comienzo”.
CAIDP, que aboga por una implementación de IA socialmente justa, también solicitó a la FTC que obligue a OpenAI a someterse a evaluaciones independientes de sus productos GPT antes y después de su lanzamiento, y que facilite que las personas informen incidentes en sus interacciones con GPT. -4, la última versión del modelo de lenguaje grande de OpenAI.
“La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales desleales y engañosas”, dijo el presidente de CAIDP, Marc Rotenberg, en un comunicado. “Creemos que la FTC debería mirar de cerca a OpenAI y GPT-4”.
Las preocupaciones sobre ChatGPT y otras interfaces de chat, como Bing con tecnología OpenAI de Microsoft y Bard de Google, incluyen la tendencia de los sistemas a inventar información, un fenómeno conocido en la industria de la IA como «alucinación», y amplificar los sesgos que están presentes en el material sobre el que se han entrenado estos modelos de lenguaje grande.
Los legisladores de la UE ya están planeando regular la industria de la IA a través de una Ley de Inteligencia Artificial que la Comisión Europea propuso por primera vez hace casi dos años. Sin embargo, algunas de las medidas propuestas comienzan a parecer obsoletas debido a los rápidos avances en el campo y los lanzamientos altamente competitivos de nuevos servicios, y las instituciones de la UE ahora se esfuerzan por modernizar el proyecto de ley para que aborde adecuadamente servicios como ChatGPT.
“Esperar a que se apruebe y entre en vigor la Ley de IA, lo que sucederá dentro de unos años, no es suficiente, ya que existen serias preocupaciones sobre cómo ChatGPT y chatbots similares podrían engañar y manipular a las personas”, dijo Pachl.
Un portavoz de BEUC dijo Fortuna la organización esperaba ver entrar en acción a una variedad de autoridades, incluidas las que regulan la seguridad de los productos, la protección de datos y la protección del consumidor.
Sin embargo, el abogado de tecnología de Berlín, Niko Härting, dijo que «no había posibilidad» de que los reguladores a nivel de la UE tomaran medidas contra OpenAI y ChatGPT mientras se negociaba la Ley de IA.
OpenAI no había respondido a una solicitud de comentarios en el momento de la publicación. Sin embargo, algunos respondieron a la carta abierta del miércoles, que fue firmada por más de 1000 personas, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, diciendo que los temores sobre la IA son exagerados y que el desarrollo no debe detenerse.
Otros estuvieron de acuerdo con el llamado de la carta para que los gobiernos actúen rápidamente para regular la tecnología, pero discreparon con la justificación de dicha regulación expresada en la carta abierta, que se centró más en el potencial de los futuros sistemas de IA para superar la inteligencia humana, y menos en el potencial daños de los sistemas existentes en la actualidad en áreas como la desinformación, el sesgo, la seguridad cibernética y los costos ambientales descomunales de la enorme cantidad de potencia informática y electricidad necesaria para entrenar y ejecutar dichos sistemas.
“El cielo no se está cayendo y Skynet no está en el horizonte”, escribió el miércoles Daniel Castro, director del grupo de expertos pro Big Tech Center for Data Innovation.
El propio CEO de OpenAI, Sam Altman, argumentó recientemente que su empresa impone límites de seguridad en sus modelos de IA que sus rivales no ponen, y dijo que le preocupaba que dichos modelos pudieran usarse para «desinformación a gran escala» y «ataques cibernéticos ofensivos». También ha dicho que el peor de los casos para la trayectoria futura de la IA es «apagarnos todos».
Este artículo se actualizó el 30 de marzo para incluir el comentario de Härting y el 31 de marzo para corregir la atribución de la declaración de CDI.