La Comisión Federal de Comercio ha abierto una investigación sobre OpenAI, la puesta en marcha de inteligencia artificial que fabrica ChatGPT, sobre si el chatbot ha dañado a los consumidores a través de su recopilación de datos y su publicación de información falsa sobre personas.
En una carta de 20 páginas enviada a la empresa de San Francisco esta semana, la agencia dijo que también estaba investigando las prácticas de seguridad de OpenAI. La FTC le hizo a OpenAI docenas de preguntas en su carta, incluida la forma en que la empresa nueva entrena sus modelos de IA y trata los datos personales, y dijo que la compañía debería proporcionarle a la agencia documentos y detalles.
La FTC está examinando si OpenAI “participó en prácticas injustas o engañosas de privacidad o seguridad de datos o participó en prácticas injustas o engañosas relacionadas con los riesgos de daño a los consumidores”, decía la carta.
La investigación fue reportada anteriormente por The Washington Post y confirmada por una persona familiarizada con la investigación.
La investigación de la FTC representa la primera gran amenaza regulatoria de EE. UU. para OpenAI, una de las empresas de IA de más alto perfil, y señala que la tecnología puede estar cada vez más bajo escrutinio a medida que las personas, las empresas y los gobiernos utilizan más productos impulsados por IA. La tecnología en rápida evolución ha generado alarmas ya que los chatbots, que pueden generar respuestas en respuesta a indicaciones, tienen el potencial de reemplazar a las personas en sus trabajos y difundir desinformación.
Sam Altman, quien dirige OpenAI, ha dicho que la industria de IA de rápido crecimiento necesita ser regulada. En mayo, testificó en el Congreso para invitar a la legislación de IA y visitó a cientos de legisladores, con el objetivo de establecer una agenda política para la tecnología.
El jueves, el tuiteó que era «muy importante» que la tecnología de OpenAI fuera segura. Agregó: “Confiamos en que cumplimos con la ley” y trabajaremos con la agencia.
OpenAI ya ha estado bajo presión regulatoria a nivel internacional. En marzo, la autoridad de protección de datos de Italia prohibió ChatGPT, diciendo que OpenAI recopilaba ilegalmente datos personales de los usuarios y no contaba con un sistema de verificación de edad para evitar que los menores estuvieran expuestos a material ilícito. OpenAI restauró el acceso al sistema el mes siguiente, diciendo que había realizado los cambios solicitados por la autoridad italiana.
La FTC está actuando sobre la IA con notable rapidez, abriendo una investigación menos de un año después de que OpenAI introdujera ChatGPT. Lina Khan, la presidenta de la FTC, ha dicho que las empresas de tecnología deben ser reguladas mientras las tecnologías son incipientes, en lugar de solo cuando maduran.
En el pasado, la agencia solía iniciar investigaciones después de un paso en falso público importante por parte de una empresa, como abrir una investigación sobre las prácticas de privacidad de Meta después de informes de que compartió datos de usuarios con una firma de consultoría política, Cambridge Analytica, en 2018.
La Sra. Khan, quien testificó en una audiencia del comité de la Cámara el jueves sobre las prácticas de la agencia, dijo anteriormente que la industria de la IA necesitaba un escrutinio.
“Aunque estas herramientas son novedosas, no están exentas de las reglas existentes, y la FTC hará cumplir enérgicamente las leyes que tenemos a cargo de administrar, incluso en este nuevo mercado”, escribió en un ensayo invitado en The New York Times en mayo. “Si bien la tecnología avanza rápidamente, ya podemos ver varios riesgos”.
El jueves, en la audiencia del Comité Judicial de la Cámara, la Sra. Khan dijo: “ChatGPT y algunos de estos otros servicios están recibiendo una gran cantidad de datos. No hay controles sobre qué tipo de datos se insertan en estas empresas”. Agregó que había habido informes de que aparecía “información confidencial” de personas.
La investigación podría obligar a OpenAI a revelar sus métodos para construir ChatGPT y qué fuentes de datos utiliza para construir sus sistemas de IA. Si bien OpenAI ha sido bastante abierto durante mucho tiempo sobre dicha información, más recientemente ha dicho poco sobre de dónde provienen los datos para sus sistemas de IA y cuánto se usa para construir ChatGPT, probablemente porque desconfía de que los competidores los copien y le preocupan las demandas. sobre el uso de ciertos conjuntos de datos.
Los chatbots, que también están siendo implementados por compañías como Google y Microsoft, representan un cambio importante en la forma en que se construye y usa el software de computadora. Están preparados para reinventar los motores de búsqueda de Internet como Google Search y Bing, los asistentes digitales parlantes como Alexa y Siri, y los servicios de correo electrónico como Gmail y Outlook.
Cuando OpenAI lanzó ChatGPT en noviembre, instantáneamente capturó la imaginación del público con su capacidad para responder preguntas, escribir poesía y hacer riffs sobre casi cualquier tema. Pero la tecnología también puede mezclar realidad con ficción e incluso inventar información, un fenómeno que los científicos llaman “alucinación”.
ChatGPT está impulsado por lo que los investigadores de IA llaman una red neuronal. Esta es la misma tecnología que traduce entre francés e inglés en servicios como Google Translate e identifica a los peatones mientras los autos autónomos navegan por las calles de la ciudad. Una red neuronal aprende habilidades mediante el análisis de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.
Los investigadores de laboratorios como OpenAI han diseñado redes neuronales que analizan grandes cantidades de texto digital, incluidos artículos de Wikipedia, libros, noticias y registros de chat en línea. Estos sistemas, conocidos como grandes modelos de lenguaje, han aprendido a generar texto por sí mismos, pero pueden repetir información defectuosa o combinar hechos de manera que produzcan información inexacta.
En marzo, el Center for AI and Digital Policy, un grupo de defensa que aboga por el uso ético de la tecnología, solicitó a la FTC que impida que OpenAI publique nuevas versiones comerciales de ChatGPT, citando preocupaciones relacionadas con el sesgo, la desinformación y la seguridad.
La organización actualizó la queja hace menos de una semana, describiendo formas adicionales en que el chatbot podría causar daño, lo que dijo que OpenAI también había señalado.
“La propia empresa ha reconocido los riesgos asociados con el lanzamiento del producto y ha pedido una regulación”, dijo Marc Rotenberg, presidente y fundador del Centro de IA y Política Digital. “La Comisión Federal de Comercio necesita actuar”.
OpenAI ha estado trabajando para refinar ChatGPT y reducir la frecuencia de material sesgado, falso o dañino. A medida que los empleados y otros evaluadores utilizan el sistema, la empresa les pide que califiquen la utilidad y veracidad de sus respuestas. Luego, a través de una técnica llamada aprendizaje de refuerzo, utiliza estas calificaciones para definir con más cuidado lo que hará y lo que no hará el chatbot.
La investigación de la FTC sobre OpenAI puede llevar muchos meses y no está claro si conducirá a alguna acción por parte de la agencia. Tales investigaciones son privadas y, a menudo, incluyen declaraciones de altos ejecutivos corporativos.
Es posible que la agencia no tenga el conocimiento para examinar completamente las respuestas de OpenAI, dijo Megan Gray, ex miembro del personal de la oficina de protección al consumidor. “La FTC no cuenta con el personal con experiencia técnica para evaluar las respuestas que obtendrán y para ver cómo OpenAI puede tratar de encubrir la verdad”, dijo.