Saltar al contenido

OpenAI presionó a la UE para evitar regulaciones más estrictas para sus modelos de IA

20 de junio de 2023

OpenAI ha estado presionando a la Unión Europea para diluir la legislación de IA entrante. Según documentos de la Comisión Europea obtenidos por Tiempo, el creador de ChatGPT solicitó que los legisladores hicieran varias enmiendas a una versión preliminar de la Ley de IA de la UE, una próxima ley diseñada para regular mejor el uso de la inteligencia artificial, antes de que fuera aprobada por el Parlamento Europeo el 14 de junio. Algunos cambios sugeridos por OpenAI finalmente se incorporaron a la legislación.

Antes de su aprobación, los legisladores debatieron ampliar los términos dentro de la Ley AI para designar todo los sistemas de IA de propósito general (GPAI) como ChatGPT y DALL-E de OpenAI como de «alto riesgo» según las categorizaciones de riesgo de la ley. Hacerlo los obligaría a cumplir con las obligaciones de seguridad y transparencia más estrictas. De acuerdo a Tiempo, OpenAI luchó repetidamente contra los sistemas de IA generativa de la compañía que caen bajo esta designación en 2022, argumentando que solo las empresas que aplican explícitamente IA a casos de uso de alto riesgo deben cumplir con las regulaciones. Este argumento también ha sido promovido por Google y Microsoft, que han presionado de manera similar a la UE para que reduzca el impacto de la Ley de IA en las empresas que crean GPAI.

“GPT-3 no es un sistema de alto riesgo, pero posee capacidades que potencialmente pueden emplearse en casos de uso de alto riesgo”

«OpenAl implementa principalmente sistemas Al de propósito general; por ejemplo, nuestro modelo de lenguaje GPT-3 se puede usar para una amplia variedad de casos de uso que involucran lenguaje, como resúmenes, clasificación, preguntas y respuestas, y traducción», dijo OpenAI en un comunicado no publicado. Libro blanco enviado a los funcionarios de la Comisión y el Consejo de la UE en septiembre de 2022. «En sí mismo, GPT-3 no es un sistema de alto riesgo, pero posee capacidades que pueden emplearse potencialmente en casos de uso de alto riesgo».

Recomendado:  Elon Musk se une al llamado a la pausa en la creación de 'mentes digitales' gigantes de IA | Inteligencia artificial (IA)

Tres representantes de OpenAI se reunieron con funcionarios de la Comisión Europea en junio de 2022 para aclarar las categorizaciones de riesgo propuestas en la Ley de IA. “Les preocupaba que los sistemas de inteligencia artificial de propósito general se incluyeran como sistemas de alto riesgo y les preocupaba que más sistemas, por defecto, se clasificaran como de alto riesgo”, dijo un registro oficial de la reunión obtenido por Tiempo. Una fuente anónima de la Comisión Europea también informó Tiempo que, dentro de esa reunión, OpenAI expresó su preocupación de que esta regulación excesiva percibida podría afectar la innovación de la IA, alegando que estaba al tanto de los riesgos relacionados con la IA y estaba haciendo todo lo posible para mitigarlos. Según se informa, OpenAI no sugirió regulaciones que crea que deberían estar vigentes.

“A pedido de los formuladores de políticas en la UE, en septiembre de 2022 brindamos una descripción general de nuestro enfoque para implementar sistemas como GPT-3 de manera segura, y comentamos sobre el borrador de la [AI Act] basado en esa experiencia”, dijo un portavoz de OpenAI en un comunicado a Tiempo. “Desde entonces, la [AI Act] ha evolucionado sustancialmente y hemos hablado públicamente sobre las capacidades de avance y la adopción de la tecnología. Continuamos interactuando con los legisladores y apoyando el objetivo de la UE de garantizar que las herramientas de IA se construyan, implementen y utilicen de manera segura ahora y en el futuro”.

OpenAI no ha revelado previamente sus esfuerzos de cabildeo en la UE, y parecen tener un gran éxito: las GPAI no se clasifican automáticamente como de alto riesgo en el borrador final de la Ley de IA de la UE aprobada el 14 de junio. Sin embargo, impone mayores requisitos de transparencia en los «modelos básicos»: poderosos sistemas de IA como ChatGPT que se pueden usar para diferentes tareas, lo que requerirá que las empresas lleven a cabo evaluaciones de riesgo y revelen si se usó material protegido por derechos de autor para entrenar sus modelos de IA. .

Recomendado:  Incluso sin cerebro, los robots devoradores de metales pueden buscar comida

Los cambios sugeridos por OpenAI, incluida la no aplicación de regulaciones más estrictas en todos los GPAI, se incorporaron a la Ley de IA aprobada por la UE.

Un portavoz de OpenAI informó Tiempo que OpenAI apoyó la inclusión de «modelos básicos» como una categoría separada dentro de la Ley de IA, a pesar del secreto de OpenAI con respecto a dónde obtiene los datos para entrenar sus modelos de IA. Se cree ampliamente que estos sistemas se están entrenando en conjuntos de datos que se han extraído de Internet, incluida la propiedad intelectual y los materiales con derechos de autor. La empresa insiste en que se ha mantenido callada sobre las fuentes de datos para evitar que sus rivales copien su trabajo, pero si se ve obligada a revelar dicha información, OpenAI y otras grandes empresas tecnológicas podrían ser objeto de demandas por derechos de autor.

La postura del CEO de OpenAI, Sam Altman, sobre la regulación de la IA ha sido bastante errática hasta ahora. El CEO ha presionado visiblemente por la regulación, después de haber discutido los planes con el Congreso de los EE. UU., y destacó los peligros potenciales de la IA en una carta abierta que firmó junto con otros líderes tecnológicos notables como Elon Musk y Steve Wozniak a principios de este año. Pero su atención se ha centrado principalmente en futuro daños de estos sistemas. Al mismo tiempo, advirtió que OpenAI podría cesar sus operaciones en el mercado de la UE si la empresa no puede cumplir con las regulaciones de IA entrantes de la región (aunque él más tarde revirtió esos comentarios).

Recomendado:  PERRONE ROBOTICS PRESENTA LA FUSIÓN INNOVADORA DEL SISTEMA OPERATIVO GPT AI Y MAX ROBOTICS PARA VEHÍCULOS AUTÓNOMOS

OpenAI argumentó que su enfoque para mitigar los riesgos que ocurren a partir de los GPAI es «líder en la industria» en su libro blanco enviado a la Comisión de la UE. “Lo que están diciendo es básicamente: confíen en nosotros para autorregularnos”, dijo Daniel Leufer, analista senior de políticas de Access Now. Tiempo. “Es muy confuso porque están hablando con los políticos y les dicen: ‘Regulen por favor’, se jactan de todos los [safety] cosas que hacen, pero tan pronto como dices: ‘Bueno, tomémosle la palabra y establezcamos eso como un piso regulatorio’, dicen que no».

La Ley de IA de la UE todavía tiene un camino por recorrer antes de que entre en vigor. La legislación ahora se discutirá en el Consejo Europeo en una etapa final de «diálogo tripartito», que tiene como objetivo finalizar los detalles dentro de la ley, incluido cómo y dónde se puede aplicar. La aprobación final se espera para finales de este año y puede tardar alrededor de dos años en entrar en vigor.