Bloomberg — Un memorando interno de OpenAI revela que la empresa respalda la idea de requerir licencias del gobierno a todo aquel que desee diseñar sistemas avanzados de inteligencia artificial (IA). También sugiere que la compañía es partidaria de hacer públicos aquellos datos que emplean para el entrenamiento de sus generadores de imagen.
La empresa responsable de ChatGPT y DALL-E expuso en su documento entre diversos compromisos relacionados con la IA tras una reunión celebrada el pasado 4 de mayo entre representantes de la Casa Blanca y ejecutivos del ámbito tecnológico, entre ellos el CEO de OpenAI, sam altman.
“Estamos comprometidos a colaborar con el gobierno estadounidense y los responsables políticos mundiales para respaldar el desarrollo normativo en cuanto a licencias para generaciones venideras de modelos de base más competentes”, señaló en su borrador la empresa establecida en San Francisco.
El concepto de un sistema gubernamental de concesión de licencias codiseñado por gigantes de la IA de la talla de OpenAI sienta las bases para un potencial choque con las startups y los desarrolladores de código abierto (open source), que lo podrían percibir como una maniobra para hacer más difícil que otros irrumpan en este campo. La idea no es nueva para OpenAI: En mayo, durante una audiencia ante el Senado de Estados Unidos, Altman apoyó la propuesta de crear una agencia que, en su opinión, emitiera licencias para productos de inteligencia artificial y las revocara si se incumplían las normas estipuladas.
Este documento de política se conoce justo en el momento en que se prevé que Microsoft Corp. (MSFT), Google de Alphabet Inc. (GOOGL) y OpenAI se comprometan en público este viernes a aplicar mecanismos de salvaguarda a la hora de elaborar dicha tecnología, en respuesta a una petición de la Casa Blanca. De acuerdo con personas conocedoras de los detalles, las compañías se comprometen a desarrollar y desplegar la inteligencia artificial de forma responsable.
OpenAI advirtió que las ideas establecidas en el documento de política interna serán diferentes de las que pronto anunciará la Casa Blanca, junto con las empresas tecnológicas. Anna Makanjuvicepresidenta de asuntos globales de la compañía, dijo en una entrevista que la compañía no está “presionando” para obtener licencias, sino que cree que otorgar permisos es una forma “realista” para que los gobiernos rastreen los sistemas emergentes.
“Es importante que los gobiernos estén al tanto de si están surgiendo sistemas superpoderosos que podrían tener impactos dañinos potenciales”, dijo, y hay “muy pocas formas en que puede asegurarse de que los gobiernos están al tanto de estos sistemas si alguien no está dispuesto a autoinformarse como lo hacemos nosotros”.
Makanju dijo que OpenAI admite regímenes de licencia solo para modelos de IA más potentes que el actual GPT-4 de OpenAI y quiere garantizar que las nuevas empresas más pequeñas sean libres de demasiada carga regulatoria. “No queremos sofocar el ecosistema”, dijo.
OpenAI también dijo en el documento de política interna que esta dispuesto a ser mas abierto
sobre los datos que utiliza para capacitar a los generadores de imagenes como DALL-E, diciendo que se comprometió a “incorporar un enfoque de procedencia” para fin de año. La procedencia de los datos, una práctica utilizada para responsabilizar a los desarrolladores por la transparencia en su trabajo y de dónde proviene, ha sido planteada por los formuladores de políticas como fundamental para evitar que las herramientas de IA difundan información errónea y sesgada.
Los compromisos establecidos en el memorando de OpenAI siguen de cerca algunas de las propuestas de políticas de Microsoft anunciadas en mayo. OpenAI ha señalado que, a pesar de recibir una inversión de US$10.000 millones de Microsoft, sigue siendo una empresa independiente.
La firma reveló en el documento que está realizando una encuesta sobre marcas de agua, un método para rastrear la autenticidad y los derechos de autor de las imágenes generadas por IA, así como la detección y divulgación en el contenido creado por IA. Tiene previsto publicar resultados.
La compañía también dijo en el documento que estaba abierto a equipos rojos externos; en otras palabras, permitir que las personas ingresen y prueben las vulnerabilidades en su sistema en múltiples frentes, incluido el contenido ofensivo, el riesgo de manipulación y la desinformación y el sesgo. La firma dijo en el memorando que apoya la creación de un centro de intercambio de información para colaborar en ciberseguridad.
En el memorando, OpenAI parece reconocer el riesgo potencial que los sistemas de IA representan para los mercados laborales y la desigualdad. La compañía dijo en el borrador que llevaría a cabo una investigación y haría recomendaciones a los legisladores para proteger la economía contra una posible “interrupción”.
–Con la asistencia de Anna Edgerton y Courtney Rosen.
Más en Bloomberg
Lee también
España, la punta de lanza del reglamento europeo para la inteligencia artificial