Saltar al contenido

Europa hace sonar la alarma en ChatGPT

24 de abril de 2023

(Imágenes falsas)

BARCELONA — Alarmados por los crecientes riesgos que plantean las plataformas de inteligencia artificial generativa (IA) como ChatGPT, los reguladores y los organismos encargados de hacer cumplir la ley en Europa están buscando formas de frenar la precipitada carrera de la humanidad hacia el futuro digital.

Con pocas medidas de seguridad, ChatGPT, que responde a las consultas de los usuarios en forma de ensayos, poemas, hojas de cálculo y código de computadora, registró más de 1600 millones de visitas desde diciembre. Europol, la Agencia de la Unión Europea para la Cooperación en el Cumplimiento de la Ley, advirtió a fines de marzo que ChatGPT, solo una de las miles de plataformas de IA actualmente en uso, puede ayudar a los delincuentes con phishing, creación de malware e incluso actos terroristas.

“Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación al ofrecer información clave que luego puede explorarse más a fondo en pasos posteriores”, indicó el informe de Europol. “Como tal, ChatGPT se puede usar para aprender sobre una gran cantidad de posibles áreas delictivas sin conocimiento previo, que van desde cómo entrar en una casa hasta terrorismo, ciberdelincuencia y abuso sexual infantil”.

El mes pasado, Italia abofeteó una prohibición temporal de ChatGPT después de que un problema técnico expusiera los archivos de los usuarios. La junta italiana de derechos de privacidad, Garante, amenazó al creador del programa, OpenAI, con multas de millones de dólares por violaciones de la privacidad hasta que aborde las preguntas sobre dónde va la información de los usuarios y establezca restricciones de edad en la plataforma. España, Francia y Alemania están investigando quejas de violaciones de datos personales, y este mes la Junta Europea de Protección de Datos de la UE formó un grupo de trabajo para coordinar las regulaciones en los 27 países de la Unión Europea.

“Es una llamada de atención en Europa”, dijo a Yahoo News el legislador de la UE Dragos Tudorache, copatrocinador de la Ley de Inteligencia Artificial, que se está finalizando en el Parlamento Europeo y establecería una autoridad central de IA. “Tenemos que discernir muy claramente qué está pasando y cómo enmarcar las reglas”.

Aunque la inteligencia artificial ha sido parte de la vida cotidiana durante varios años (Alexa de Amazon y los juegos de ajedrez en línea son solo dos de muchos ejemplos), nada ha demostrado el potencial de la IA como ChatGPT, un «modelo de lenguaje grande» interactivo donde los usuarios pueden tener preguntas respondidas o tareas completadas en segundos.

Recomendado:  ¿Alexa y Siri hacen que los niños sean más mandones? Una nueva investigación sugiere que es posible que no tenga que preocuparse

“ChatGPT tiene un conocimiento que incluso muy pocos humanos tienen”, dijo Mark Bünger, cofundador de Futurity Systems, una agencia de consultoría con sede en Barcelona enfocada en la innovación basada en la ciencia. “Entre las cosas que sabe mejor que la mayoría de los humanos está cómo programar una computadora. Por lo tanto, probablemente será muy bueno y muy rápido programar la siguiente y mejor versión de sí mismo. Y eso La versión será aún mejor y programará algo que los humanos ni siquiera entenderán”.

La tecnología asombrosamente eficiente también abre la puerta a todo tipo de fraude, dicen los expertos, incluido el robo de identidad y el plagio en las escuelas.

«Para los educadores, la posibilidad de que el trabajo de curso enviado haya sido asistido por, o incluso escrito en su totalidad, por un sistema de inteligencia artificial generativa como ChatGPT de OpenAI o Bard de Google es motivo de preocupación», dijo Nick Taylor, subdirector del Centro de Robótica de Edimburgo. , le dijo a Yahoo Noticias.

OpenAI y Microsoft, que ha respaldado financieramente a OpenAI pero ha desarrollado un chatbot rival, no respondió a una solicitud de comentarios para este artículo.

“La IA ha existido durante décadas, pero ahora está en auge porque está disponible para que todos la usen”, dijo Cecilia Tham, directora ejecutiva de Futurity Systems. Desde que ChatGPT se presentó como una prueba gratuita para el público el 30 de noviembre, dijo Tham, los programadores lo han estado adaptando para desarrollar miles de nuevos chatbots, desde PlantGPT, que ayuda a monitorear las plantas de interior, hasta el hipotético ChaosGPT “que está diseñado para generar resultados caóticos o impredecibles”, según su sitio web, y en última instancia, “destruir a la humanidad”.

Otra variación, AutoGPT, abreviatura de Autonomous GPT, puede realizar tareas orientadas a objetivos más complicadas. “Por ejemplo”, dijo Tham, “puedes decir ‘Quiero ganar 1.000 euros al día. ¿Cómo puedo hacer eso?’— y se dará cuenta de todos los pasos intermedios para ese objetivo. Pero, ¿qué pasa si alguien dice ‘Quiero matar a 1,000 personas’? Dame cada paso para hacer eso’?” Aunque el modelo ChatGPT tiene restricciones en la información que puede brindar, señala que «las personas han podido piratear eso».

Recomendado:  Yuval Noah Harari: “No sé si los humanos podrán sobrevivir a la Inteligencia Artificial”

Los peligros potenciales de los chatbots y la IA en general llevaron al Future of Life Institute, un grupo de expertos centrado en la tecnología, a publicar una carta abierta el mes pasado en la que pedía una suspensión temporal del desarrollo de la IA. Firmado por Elon Musk y el cofundador de Apple, Steve Wozniak, señaló que «los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad», y «los laboratorios de inteligencia artificial [are] atrapados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”.

Los signatarios pidieron una pausa de seis meses en el desarrollo de sistemas de IA más poderosos que GPT-4 para que se pudieran elaborar regulaciones, y pidieron a los gobiernos que «establecieran una moratoria» si los actores clave de la industria no lo hacían voluntariamente. entonces.

El parlamentario de la UE Brando Benifei, copatrocinador de la Ley de IA, se burla de esa idea. “Una moratoria no es realista”, dijo a Yahoo News. “Lo que debemos hacer es seguir trabajando para encontrar las reglas correctas para el desarrollo de la IA”, dijo. “También necesitamos un debate global sobre cómo abordar los desafíos de esta IA tan poderosa”.

Esta semana, los legisladores de la UE que trabajan en IA publicaron un “llamado a la acción” solicitando que el presidente Biden y la presidenta de la Comisión Europea, Ursula von der Leyen, “convoquen una cumbre mundial de alto nivel” para concretar “un conjunto preliminar de principios rectores para el desarrollo, control y despliegue” de la IA.

Tudorache le dijo a Yahoo News que la Ley de IA, que se espera que se promulgue el próximo año, “otorga nuevos poderes a los reguladores para manejar las aplicaciones de IA” y otorga a los reguladores de la UE la autoridad para imponer fuertes multas. La legislación también incluye una ordenación de riesgos de varias actividades de IA y prohíbe usos como la «puntuación social», un esquema de monitoreo distópico que calificaría prácticamente todas las interacciones sociales en una escala de méritos.

Recomendado:  La Comisión Europea publica el esperado proyecto de Reglamento sobre inteligencia artificial: cuestiones de privacidad

“Los consumidores deben saber qué datos usa y almacena ChatGPT y para qué se usa”, dijo Sébastien Pant, subdirector de comunicaciones de la Organización Europea de Consumidores (BEUC), a Yahoo News. «Todavía no tenemos claro qué datos se están utilizando o si la recopilación de datos respeta la ley de protección de datos».

Mientras tanto, EE. UU. sigue rezagado en la adopción de medidas concretas para regular la IA, a pesar de preocupaciones planteadas recientemente por el comisionado de la FTC, Álvaro Bedoya, que “la IA se está utilizando en este momento para decidir a quién contratar, a quién despedir, quién obtiene un préstamo, quién se queda en el hospital y quién es enviado a casa”.

Cuando se le preguntó recientemente a Biden si la IA podría ser peligrosa, respondió: «Queda por verse, podría ser».

Las diferentes actitudes sobre la protección de los datos personales de los consumidores se remontan a décadas atrás, dijo a Yahoo News Gabriela Zanfir-Fortuna, vicepresidenta de privacidad global del Future of Privacy Forum, un grupo de expertos centrado en la protección de datos.

“La UE ha dado gran importancia a cómo se ven afectados los derechos de las personas al automatizar sus datos personales en esta nueva era digital informatizada, hasta el punto de incluir una disposición en su Carta de Derechos Fundamentales”, dijo Zanfir-Fortuna. Países europeos como Alemania, Suecia y Francia adoptaron leyes de protección de datos hace 50 años, agregó. “Los legisladores estadounidenses parecen haber estado menos preocupados por este tema en décadas anteriores, ya que el país aún carece de una ley general de protección de datos a nivel federal”.

Mientras tanto, Gerd Leonhard, autor de «Technology vs. Humanity», y otros se preocupan por lo que sucederá cuando los militares, las instituciones bancarias y quienes trabajan en problemas ambientales utilicen ChatGPT y formas más avanzadas de IA.

“La broma constante en la comunidad de IA”, dijo Leonhard, “es que si le pides a la IA que arregle el cambio climático, mataría a todos los humanos. Es un inconveniente para nosotros, pero es la respuesta más lógica”.