Saltar al contenido

Poner al genio de la IA de nuevo en la botella no es una opción, dice Nick Clegg de Meta | Meta

23 de julio de 2023

El jefe de política global de Meta, Sir Nick Clegg, ha respaldado los llamados para que una agencia internacional guíe la regulación de la inteligencia artificial si se vuelve autónoma, diciendo que los gobiernos de todo el mundo deberían evitar leyes «fragmentadas» en torno a la tecnología.

Pero Clegg restó importancia a las sugerencias de pago para creadores de contenido como artistas o medios de comunicación cuyo trabajo se extrae para enseñar chatbots e inteligencia artificial generativa, sugiriendo que dicha información estaría disponible bajo acuerdos de uso justo.

“Los creadores que se inclinan por usar esta tecnología, en lugar de intentar bloquearla o ralentizarla o evitar que se base en su propia producción creativa, a la larga estarán en una mejor posición que aquellos que se oponen a esta tecnología”, dijo Clegg a Guardian Australia.

id=»3e28ad84-2fa6-4976-aa8d-622e7485a1be» data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>

“Creemos que estamos usando [data] completamente de acuerdo con la ley existente. Muchos de estos datos se están transformando en la forma en que se implementan mediante estos modelos generativos de IA. A la larga, no puedo ver cómo se vuelve a meter al genio en la botella, dado que estos modelos utilizan información disponible públicamente en Internet, y no sin razón”.

id=»a8b0691e-b88b-4e7b-a8da-73bc52098c51″ data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>

Sir Nick Clegg

Nick Clegg dice que los gobiernos de todo el mundo deberían evitar leyes ‘fragmentadas’ en torno a la IA. Fotografía: Kenzo Tribouillard/AFP/Getty Images

Clegg, presidente de asuntos globales de Meta y exviceprimer ministro británico, dijo que la compañía buscó establecer «un punto de referencia temprano» en transparencia y mitigaciones de seguridad con el lanzamiento esta semana de Llama 2, su gran modelo de lenguaje desarrollado con Microsoft.

Los modelos de idiomas grandes, o LLM, usan grandes conjuntos de datos, incluidos datos accesibles públicamente en línea, para producir contenido nuevo. El bot de texto ChatGPT de OpenAI es un ejemplo. La rápida aceleración de dichos servicios ha llevado a la evaluación de las preocupaciones éticas y legales en torno a la tecnología, incluidos los problemas de derechos de autor, la información errónea y la seguridad en línea.

id=»7da60a70-738c-4ce0-9dbf-bd8c3e5d87a3″ data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>

Palabras inteligencia artificial y un brazo robótico

El gobierno federal de Australia está trabajando en la regulación de la IA y ha publicado un documento de consulta. Fotografía: Dado Ruvic/Reuters
Recomendado:  El sesgo de la IA es frecuente pero prevenible: aquí se explica cómo erradicarlo

El gobierno federal de Australia ahora está trabajando en la regulación de la IA y publicó un documento de consulta que prohibía los usos de «alto riesgo» de la inteligencia artificial, con preocupaciones planteadas sobre falsificaciones profundas, toma de decisiones automatizada y sesgo algorítmico.

A falta de dos semanas para que finalice la consulta, los principales temas tratados han girado en torno a la seguridad y la confianza. Ed Husic, ministro de industria y ciencia de Australia, dijo que el gobierno quería mejores marcos para poder “implementar con confianza” la IA en áreas tan diversas como la calidad del agua, la gestión del tráfico y la ingeniería.

“Le he estado diciendo a las mesas redondas que la era de la autorregulación ha terminado”, dijo a Guardian Australia.

“Deberíamos esperar que se apliquen las reglas y credenciales apropiadas a las aplicaciones de IA de alto riesgo”.

En su única entrevista australiana, Clegg alentó la creación de reglas de IA consistentes a nivel internacional, señalando los procesos en curso a través del G7 y la OCDE.

“La buena regulación será la regulación multilateral, o alineada entre las principales jurisdicciones. Esta tecnología es más grande que cualquier empresa o país. Sería contraproducente si la regulación surge de manera fragmentada”, dijo.

“Es muy importante que las principales jurisdicciones, incluida Australia, trabajen en conjunto con otras. No existe tal cosa como una solución individual en este espacio regulatorio”.

id=»e86d2fc7-5f6d-4ba8-9c5b-91b3c09c67a2″ data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>

La directora regional de políticas públicas de Meta, Mia Garlick, ante un comité en Canberra

La directora regional de políticas públicas de Meta, Mia Garlick, ante un comité en Canberra. Fotografía: Mike Bowers/The Guardian

Clegg dijo que Meta estaba alentando a las empresas de tecnología a comenzar a establecer sus propias pautas sobre transparencia, responsabilidad y seguridad mientras los gobiernos formulaban leyes. Dijo que Meta, Microsoft, Google, OpenAI y otros estaban desarrollando tecnología para ayudar a los usuarios a detectar contenido producido por IA, pero advirtió que sería “prácticamente inviable” detectar texto generado por IA.

Sam Altman de OpenAI sugirió el mes pasado que una agencia internacional supervise el desarrollo de la tecnología de IA, y puso como ejemplo a la Agencia Internacional de Energía Atómica. Clegg no llegó a respaldar tal medida para guiar la tecnología actual y describió a los LLM como «sofisticadas máquinas de adivinar», pero respaldó cierta supervisión internacional si la IA se vuelve más poderosa.

Recomendado:  La IA y su futuro en la asistencia sanitaria

“La idea fundamental es, ¿cómo deberíamos reaccionar como mundo si la IA desarrolla un grado de autonomía o agencia?” Dijo Clegg.

“Una vez que hacemos eso, cruzamos un Rubicón. Si eso sucede, por cierto, hay debate entre los expertos; algunos dicen que en los próximos 18 meses, otros dicen que no dentro de 80 años. Pero una vez que cruzas ese Rubicón, estás en un mundo muy diferente.

data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.NewsletterSignupBlockElement» class=» dcr-173mewl» wp_automatic_readability=»2.5787476280835″>saltar promoción del boletín anterior

después de la promoción del boletín

“Los modelos de lenguaje grande que hemos lanzado son muy primitivos en comparación con esa visión del futuro. No es nuestra misión construir inteligencia generativa artificial, eso no es de lo que se trata Meta ni de lo que trata de construir. Pero si surge, creo que, ya sea el OIEA o algún otro modelo regulatorio, estás en un juego de pelota completamente diferente”.

Una preocupación más inmediata planteada sobre la tecnología existente es cómo se entrenan los modelos de IA y qué datos extraen, lo que genera preguntas sobre el material protegido por derechos de autor. Clegg dijo que Llama 2 no está capacitado con los datos de los usuarios de Meta, pero dijo que la compañía creía que estaba respetando los derechos de propiedad intelectual.

id=»57fad7f6-ae6a-48cd-8ef3-8670950513d8″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>

“Creemos que lo estamos haciendo de acuerdo con la ley existente, los estándares existentes de uso justo de datos”, dijo.

Recomendado:  Libélula robótica blanda señala alteraciones ambientales

“Entiendo totalmente que los propietarios de derechos de autor y otros comenzarán a plantear preguntas sobre cuáles son exactamente las implicaciones para su propia propiedad intelectual”.

Clegg descartó las comparaciones con el código de negociación de los medios de comunicación de Australia, que pagaba a los medios de comunicación por el valor que su contenido aportaba a Facebook. Dijo que se estaba considerando cómo debería tratarse la información pública, que luego se “transforma” y utiliza en diferentes entornos.

“Nos parece, al menos, que esto es algo bueno para el mundo, es innato a esta tecnología, pero sospecho firmemente que lo que va a tener son muchos argumentos arcanos sobre si los datos se usan en forma inalterada o transformada”, dijo Clegg.

“Internet, en cierto sentido, funciona, particularmente según el principio de uso justo, de que las personas pueden usar los datos disponibles públicamente de una manera bastante versátil. De lo contrario, Internet simplemente no funcionaría.

id=»1f52ea44-40b4-4eed-81d9-f291646f9bf4″ data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>

Palabras OpenAI en pantalla.

Nick Clegg descarta las comparaciones con el código de negociación de los medios de comunicación de Australia. Fotografía: Jaap Arriens/NurPhoto/Shutterstock

“Acepto que las leyes, en el libro de estatutos, están escritas para un mundo en el que la IA generativa no existía. Sospecho firmemente que esto es algo que se desarrollará en los tribunales, el parlamento, etc.

Mia Garlick, directora regional de políticas públicas de Meta, dijo que la compañía estaba revisando los planes del gobierno australiano y que daría su opinión sobre el documento de discusión, diciendo que la tecnología debe desarrollarse «responsablemente».

“Apoyamos una reforma que reconozca el espacio de rápido desarrollo de la IA y apoyamos el desarrollo de estándares de la industria para garantizar que todos innovemos de manera responsable”, dijo en un comunicado.

“Ya estamos viendo el impacto positivo de la IA para muchas personas y creemos que debería beneficiar a todos, no solo a unas pocas empresas”.