Saltar al contenido

Rabia contra las máquinas inteligentes | Noticias

18 de abril de 2023

Varias organizaciones de alto perfil están cuestionando los riesgos inherentes a la forma en que se están implementando los modelos de lenguaje grande emergentes, en gran medida sin regulación.

Crédito: webz.io

Si el lanzamiento de ChatGPT en noviembre de 2022 fue el punto en el que la inteligencia artificial generativa (IA) comenzó a tener un impacto apreciable en la conciencia pública, la última semana de marzo de 2023 fue el comienzo de una lucha multifacética contra la IA, una que podría tener ramificaciones profundas para la libertad que tienen las empresas para implementar inteligencias de máquinas en el dominio público.

La contraofensiva de IA de esa semana involucró a varias organizaciones de alto perfil que cuestionaron los riesgos inherentes a la forma en gran parte no regulada de los modelos de lenguaje grande (LLM) emergentes, como ChatGPT y GPT-4 de OpenAI, Bing Chat de Microsoft y los sistemas Bard de Google. campo

El problema, dicen, es la forma en que se desatan los LLM sin una evaluación previa, transparente y auditable de sus riesgos, como ayudar e incitar al ciberdelito, su propensión a simplemente fabricar hechos en los que las personas pueden confiar, reforzar la desinformación peligrosa y exhibir abiertamente y sesgos sociales ofensivos. Algunos piden que se detenga el desarrollo de LLM mientras se analizan las medidas para hacerlos seguros.

Este no fue solo un argumento entre los expertos en IA. La noticia de la disputa llegó incluso a la Casa Blanca, y el presidente Biden reiteró el 5 de abril que los proveedores de inteligencia artificial, como todas las empresas de tecnología, «tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de hacerlos públicos».

El primero en salir, el 27 de marzo, fue Europol, la organización conjunta de inteligencia criminal de las 27 naciones de la Unión Europea, que publicó un informe sobre la «diversa gama de casos de uso criminal» en los que predice que podrían usarse productos como ChatGPT. .

Los expertos en análisis forense digital de Europol descubrieron que la capacidad del LLM para producir rápidamente un texto escrito convincente en muchos idiomas serviría para ocultar los errores tipográficos y gramaticales reveladores que normalmente son un regalo con los mensajes de phishing, y así aumentar el éxito de las campañas de phishing.

Europol también dijo que la capacidad de escribir mensajes con el estilo de escritura de cualquier persona es un regalo para los estafadores que se hacen pasar por empleados para incitar a sus colegas a descargar malware o mover grandes cantidades de efectivo, como ha sucedido en los llamados casos de «fraude de CEO». Además, los grupos terroristas podrían pedir a los LLM que los ayuden a generar texto para promover y defender la desinformación y las noticias falsas, lo que otorgaría una falsa credibilidad a sus campañas de propaganda, dice Europol.

Recomendado:  Los australianos ya no ven el futuro de manera positiva. Pero eso puede cambiar, y comienza con la tecnología | pedro lewis

Lo peor, quizás, es que las capacidades de escritura de códigos de los LLM podrían ser mal utilizadas por delincuentes con «poco o ningún conocimiento de codificación» para escribir malware o ransomware. «Críticamente, las salvaguardas que evitan que ChatGPT proporcione código potencialmente malicioso solo funcionan si el modelo entiende lo que está haciendo. Si las indicaciones se dividen en pasos individuales, es trivial eludir estas medidas de seguridad», dice Europol en su informe.

De particular preocupación, dice la organización, es que los LLM están lejos de ser un trato cerrado: se mejoran constantemente, por lo que su posible explotación criminal podría ocurrir cada vez más rápido y a mayor escala.

«El informe de Europol parece exactamente correcto. Estoy de acuerdo en que las cosas se ven sombrías», dice Gary Marcus, profesor de psicología y ciencias neuronales en la Universidad de Nueva York, y empresario y comentarista de inteligencia artificial. «Quizás, junto con la propaganda masiva generada por IA, el terrorismo mejorado por LLM podría a su vez conducir a una guerra nuclear o a la propagación deliberada de patógenos peores que el covid-19», dijo Marcus más tarde en su boletín.

OpenAI no respondió a las preguntas sobre los hallazgos de Europol, y tampoco lo hizo la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA), parte del Departamento de Seguridad Nacional.

Sin embargo, dos días después, el 29 de marzo, la lucha contra la IA subió otro nivel, cuando Marcus fue uno de los más de 1000 signatarios iniciales de una carta abierta a los laboratorios de IA en la que se les pedía que «detuvieran inmediatamente durante al menos 6 meses el entrenamiento de Sistemas de IA más potentes que GPT-4».

Redactada por el Future of Life Institute, en Cambridge, MA, que hace campaña contra las tecnologías que plantean riesgos existenciales, la carta instó a que «los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño avanzado de IA». y desarrollo que son rigurosamente auditados y supervisados ​​por expertos externos independientes».

“Estos protocolos deberían garantizar que los sistemas que se adhieren a ellos estén seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes. «

Recomendado:  Cómo la inteligencia artificial nos está ayudando a decodificar los lenguajes animales

La carta fue firmada por algunos de los principales especialistas en IA, incluido el pionero de las redes neuronales profundas (y ganador del Premio ACM AM Turing) Yoshua Bengio del Instituto de IA de Quebec (MILA) en Montreal, Canadá, y Stuart Russell, director del Centro de IA humana compatible en la Universidad de California, Berkeley.

Del sector comercial, los signatarios de alto perfil incluyeron al cofundador de Apple Steve Wozniak, el fundador de Skype Jann Tallinn y el empresario de autos eléctricos y vuelos espaciales Elon Musk, quien cofundó OpenAI pero dejó la compañía en 2018. Reuters señaló que los directores ejecutivos Sam Altman en OpenAI, Satya Nadella de Microsoft y Sundar Pichai de Alphabet (Google) no firmaron.

“Hemos superado un umbral crítico: las máquinas ahora pueden conversar con nosotros y pretender ser seres humanos”, dijo Bengio en un comunicado que explica por qué firmó la carta. «Nadie, ni siquiera los principales expertos en IA, incluidos los que desarrollaron estos gigantescos modelos de IA, pueden estar absolutamente seguros de que herramientas tan poderosas, ahora o en el futuro, no puedan usarse de manera que sean catastróficas para la sociedad».

«La carta no afirma que GPT-4 se volverá autónomo, lo que sería técnicamente incorrecto, y amenazaría a la humanidad. En cambio, lo que es muy peligroso, y probable, es que los humanos con malas intenciones, o simplemente sin darse cuenta de las consecuencias de sus acciones. , podría hacer con estas herramientas y sus descendientes en los próximos años», dice Bengio.

La carta del Future of Life Institute desató un debate mundial en Twitter y dominó los programas de entrevistas y noticias de radio y televisión durante unos días. Llevó a la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) a pedir a los gobiernos que promulguen los principios éticos globales de IA que ha estado desarrollando desde 2018.

Joanna Bryson, profesora de Ética y Tecnología en la Hertie School of Governance en Berlín, Alemania, dice que no hay escasez de principios éticos, como los de la UNESCO, para la IA; es solo que el sector de la IA simplemente tiende a ignorarlos.

Hacer lo correcto, agrega Bryson, debería ser sencillo, si hay voluntad.

«Lo que necesitamos es responsabilidad para las personas que lo escribieron, y deben poder demostrar que realizaron las pruebas adecuadas como sector. Necesitamos apertura, transparencia, responsabilidad y auditorías, para asegurarnos de que las personas sigan los procedimientos adecuados. , como en cualquier otro sector. Eso es todo lo que necesitan hacer», dijo Bryson.

Recomendado:  AI dibujó esta magnífica serie de cómics. ¿Puedes decir?

«Todos deberían demostrar la debida diligencia, deberían comenzar a hacer la transparencia, DevOps; todas las cosas básicas que [forthcoming] La Ley Europea de Inteligencia Artificial va a exigir que lo hagan de todos modos. Las personas que usan LLM ya están diciendo que el cumplimiento voluntario temprano es en realidad una oportunidad comercial y que pueden venderlo como parte del producto».

Las palabras de Bryson resultaron proféticas. El 30 de marzo, la lucha contra la IA continuó cuando un grupo de defensa sin fines de lucro llamado Center for AI and Digital Policy (CAIDP) en Washington, DC, presentó una queja ante la Comisión Federal de Comercio de EE. UU. para solicitar la suspensión del despliegue de los productos GPT de OpenAI porque, alega que violan la ley federal de protección al consumidor de EE. UU.

En su queja, el CAIDP no se anda con rodeos, alegando que OpenAI «ha lanzado un producto, GPT-4, para el mercado de consumo que es sesgado, engañoso y un riesgo para la privacidad y la seguridad pública. Los resultados no se pueden probar o replicado. No se realizó ninguna evaluación independiente antes del despliegue».

Continúa diciendo que OpenAI ha reconocido los riesgos del producto, como su potencial para impulsar campañas de desinformación y la propagación de falsedades, pero «se exime de responsabilidad por las consecuencias que puedan seguir». Luego, la denuncia pide a la FTC que establezca una «supervisión y evaluación independientes de los productos comerciales de IA en los Estados Unidos».

La queja de CAIDP será un caso clave a tener en cuenta, sobre todo porque probablemente tendrá implicaciones más allá de los LLM, como en productos basados ​​en IA, como sistemas de asistencia al conductor y vehículos autónomos, que han sido investigados por la Administración Nacional de Seguridad del Transporte en las Carreteras de EE. UU. por causar muertos y heridos en las carreteras.

Dijo Selim Alan, director de CAIDP: «Estamos anticipando audiencias sobre nuestra queja de la FTC en el Congreso a finales de este año. Hemos enviado copias de nuestra queja al presidente y a los miembros de mayor rango de los Comités de Comercio del Senado y la Cámara».

Marcus, por su parte, tiene grandes esperanzas en que la acción del CAIDP ponga en jaque al sector de la IA. «Es una denuncia inteligente y reflexiva», dice. «Y Biden se dio cuenta de su encuadre en sus comentarios, así que creo que tiene una oportunidad. Y me encantaría verlo triunfar».

Pablo marcas es un periodista de tecnología, escritor y editor con sede en Londres, Reino Unido


entradas no encontradas