Imágenes Getty | VCG
Un grupo de investigación de IA sin fines de lucro quiere que la Comisión Federal de Comercio investigue OpenAI, Inc. y detenga los lanzamientos de GPT-4.
OpenAI «ha lanzado un producto GPT-4 para el mercado de consumo que es sesgado, engañoso y un riesgo para la privacidad y la seguridad pública. Los resultados no se pueden probar ni replicar. No se realizó una evaluación independiente antes de la implementación», dijo una queja a la FTC presentada hoy por el Centro de Inteligencia Artificial y Política Digital (CAIDP).
Al pedir «supervisión y evaluación independientes de los productos comerciales de IA que se ofrecen en los Estados Unidos», el CAIDP solicitó a la FTC que «abra una investigación sobre OpenAI, prohíba más lanzamientos comerciales de GPT-4 y garantice el establecimiento de las medidas de seguridad necesarias para proteger a los consumidores». las empresas y el mercado comercial».
Al señalar que la FTC «ha declarado que el uso de la IA debe ser ‘transparente, explicable, justo y empíricamente sólido al tiempo que fomenta la responsabilidad'», el grupo sin fines de lucro argumentó que «el producto GPT-4 de OpenAI no satisface ninguno de estos requisitos».
GPT-4 fue presentado por OpenAI el 14 de marzo y está disponible para los suscriptores de ChatGPT Plus. Bing de Microsoft ya está usando GPT-4. OpenAI calificó a GPT-4 como un gran avance, diciendo que «aprueba un examen de barra simulado con una puntuación alrededor del 10 por ciento superior de los examinados», en comparación con el 10 por ciento inferior de los examinados para GPT-3.5.
Aunque OpenAI dijo que tenía expertos externos que evaluaron los riesgos potenciales planteados por GPT-4, CAIDP no es el primer grupo que plantea preocupaciones sobre el movimiento demasiado rápido del campo de la IA. Como informamos ayer, el Future of Life Institute publicó una carta abierta instando a los laboratorios de IA a «pausar inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4». La larga lista de firmantes de la carta incluía a muchos profesores junto con algunos nombres notables de la industria tecnológica como Elon Musk y Steve Wozniak.
El grupo afirma que GPT-4 viola la Ley FTC
CAIDP dijo que la FTC debería investigar a OpenAI usando su autoridad bajo la Sección 5 de la Ley de la Comisión Federal de Comercio para investigar, enjuiciar y prohibir «actos o prácticas desleales o engañosas en el comercio o que lo afecten». El grupo afirma que «el lanzamiento comercial de GPT-4 viola la Sección 5 de la Ley de la FTC, la guía bien establecida de la FTC para las empresas sobre el uso y la publicidad de productos de IA, así como las normas emergentes para la gobernanza de la IA que el El gobierno de los Estados Unidos ha respaldado formalmente las Pautas universales para la IA que los principales expertos y sociedades científicas han recomendado».
La FTC debe «detener la implementación comercial adicional de GPT por parte de OpenAI», exigir una evaluación independiente de los productos GPT antes de la implementación y «a lo largo del ciclo de vida de la IA de GPT», «requerir el cumplimiento de la guía de IA de la FTC» antes de implementaciones futuras y «establecer un mecanismo de reporte de incidentes para GPT-4 similar a los mecanismos de la FTC para reportar fraude al consumidor», dijo el grupo.
En términos más generales, CAIDP instó a la FTC a emitir reglas que requieran «estándares de referencia para productos en el sector del mercado de IA generativa».
Nos comunicamos con OpenAI y actualizaremos este artículo si recibimos una respuesta.
“OpenAI no ha revelado detalles”
El presidente y fundador de CAIDP es Marc Rotenberg, quien previamente cofundó y dirigió el Centro de información de privacidad electrónica. Rotenberg es profesor adjunto en Georgetown Law y formó parte del Grupo de Expertos en IA dirigido por la Organización internacional para la Cooperación y el Desarrollo Económicos. Rotenberg también firmó la carta abierta del Future of Life Institute, que se cita en la demanda de CAIDP.
El presidente y director de investigación de CAIDP es Merve Hickok, quien también es profesor de ética de datos en la Universidad de Michigan. Ella testificó en una audiencia del Congreso sobre AI el 8 de marzo. La lista de miembros del equipo de CAIDP incluye muchas otras personas involucradas en los campos de tecnología, academia, privacidad, derecho e investigación.
El mes pasado, la FTC advirtió a las empresas que analicen «los riesgos y el impacto razonablemente previsibles de su producto de IA antes de ponerlo en el mercado». La agencia también planteó varias preocupaciones sobre los «daños de la IA, como la inexactitud, el sesgo, la discriminación y el avance de la vigilancia comercial» en un informe al Congreso el año pasado.
GPT-4 presenta muchos tipos de riesgos, y su tecnología subyacente no se ha explicado adecuadamente, dijo CAIDP a la FTC. «OpenAI no ha revelado detalles sobre la arquitectura, el tamaño del modelo, el hardware, los recursos informáticos, las técnicas de capacitación, la construcción de conjuntos de datos o los métodos de capacitación», dice la denuncia de CAIDP. «La práctica de la comunidad de investigación ha sido documentar los datos de entrenamiento y las técnicas de entrenamiento para modelos de lenguaje grande, pero OpenAI decidió no hacer esto para GPT-4».
«Los modelos de IA generativa son productos de consumo inusuales porque exhiben comportamientos que pueden no haber sido identificados previamente por la compañía que los lanzó a la venta», dijo también el grupo.