En febrero de 2019, OpenAI, una empresa de inteligencia artificial poco conocida, anunció que su generador de texto modelo de lenguaje grande, GPT-2, no se lanzaría al público “debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología. ” Entre los peligros, afirmó la compañía, estaba la posibilidad de artículos de noticias engañosos, suplantación de identidad en línea y automatización de la producción de contenido abusivo o falso en las redes sociales y de contenido de spam y phishing. Como consecuencia, Open AI propuso que “los gobiernos deberían considerar expandir o comenzar iniciativas para monitorear de manera más sistemática el impacto social y la difusión de las tecnologías de IA, y para medir la progresión en las capacidades de dichos sistemas”.
Esta semana, cuatro años después de esa advertencia, los miembros del Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley se reunieron para discutir “Supervisión de la IA: reglas para la inteligencia artificial”. Como ha sido el caso con otras audiencias tecnológicas en el Capitolio, esta se produjo después de que ya estaba en circulación una nueva tecnología con la capacidad de alterar fundamentalmente nuestra vida social y política. Al igual que muchos estadounidenses, los legisladores se preocuparon por las trampas de la inteligencia artificial del modelo de lenguaje grande en marzo, cuando OpenAI lanzó GPT-4, la iteración más reciente y pulida de su generador de texto. Al mismo tiempo, la compañía lo agregó a un chatbot que había lanzado en noviembre que usaba GPT para responder preguntas de manera conversacional, con una confianza que no siempre está garantizada, porque GPT tiende a inventarse cosas.
A pesar de esta precariedad, en dos meses, ChatGPT se convirtió en la aplicación para consumidores de más rápido crecimiento en la historia, alcanzando los cien millones de usuarios mensuales a principios de este año. Tiene más de mil millones de visitas mensuales a la página. OpenAI también ha lanzado DALL-E, un generador de imágenes que crea imágenes originales a partir de un aviso verbal descriptivo. como GPT, DALL-E y otras herramientas de texto a imagen tienen el potencial de desdibujar la línea entre la realidad y la invención, una perspectiva que aumenta nuestra susceptibilidad al engaño. Recientemente, el Partido Republicano lanzó el primer anuncio de ataque totalmente generado por IA; muestra lo que parecen ser imágenes distópicas reales del segundo mandato de Biden.
La audiencia del Senado contó con tres expertos: Sam Altman, director ejecutivo de OpenAI; Christina Montgomery, directora de privacidad y confianza de IBM; y Gary Marcus, profesor emérito de la Universidad de Nueva York y empresario de inteligencia artificial. Pero fue Altman quien atrajo la mayor atención. Aquí estaba el jefe de la compañía con el producto más novedoso en tecnología, uno que tiene el potencial de cambiar la forma en que se llevan a cabo los negocios, cómo aprenden los estudiantes, cómo se hace el arte y cómo interactúan los humanos y las máquinas, y lo que les dijo a los senadores fue que «OpenAI cree que la regulación de la IA es esencial». Él está ansioso, escribió en su testimonio preparado, “para ayudar a los legisladores a determinar cómo facilitar la regulación que equilibre el incentivo de la seguridad, al tiempo que garantiza que las personas puedan acceder a los beneficios de la tecnología”.
El senador Dick Durbin, de Illinois, calificó la audiencia de «histórica» porque no recordaba que los ejecutivos se presentaran ante los legisladores y «suplicaran» que regularan sus productos, pero esta no fue, de hecho, la primera vez que un CEO de tecnología se había sentado en una sala de audiencias del Congreso y había pedido más regulación. En particular, en 2018, a raíz del escándalo de Cambridge Analytica, cuando Facebook le dio a la firma de consultoría política alineada con Trump acceso a la información personal de casi noventa millones de usuarios, sin su conocimiento, el director ejecutivo de Facebook, Mark Zuckerberg, dijo algunos de los mismos senadores que estaba abierto a una mayor supervisión del gobierno, una posición que reiteró el próximo año, escribiendo en Washington Correo, “Creo que necesitamos un papel más activo para los gobiernos y los reguladores”. (Al mismo tiempo, Facebook estaba pagando a cabilderos millones de dólares al año para evitar la regulación gubernamental).
Al igual que Zuckerberg, Altman prologó su llamado a una mayor regulación con una explicación de las barreras que su empresa ya emplea, como entrenar a sus modelos para rechazar ciertos tipos de consultas «antisociales», como una que planteé a ChatGPT recientemente, cuando pregunté para escribir el código para imprimir una Glock en 3D. (Sin embargo, escribió un guión para una honda impresa en 3D. «Me gustaría enfatizar que la creación y el uso de este dispositivo deben hacerse de manera responsable y legal», dijo, antes de sacar el código. ) Las políticas de uso de OpenAI también prohíben a las personas, entre otras cosas, usar sus modelos para crear malware, generar imágenes de abuso sexual infantil, plagiar o producir materiales de campañas políticas, aunque no está claro cómo la empresa planea aplicarlas. “Si descubrimos que su producto o uso no cumple con estas políticas, es posible que le pidamos que realice los cambios necesarios”, establece la política, y esencialmente reconoce que, en muchos casos, OpenAI actuará después de que se haya producido una infracción, en lugar de prevenirla. él.
En una declaración de apertura en la audiencia, el presidente del subcomité, el Senador Richard Blumenthal, de Connecticut, fue implacable. “Se debería exigir a las empresas de IA que prueben sus sistemas, divulguen los riesgos conocidos y permitan el acceso de investigadores independientes”, dijo. Y agregó: “Cuando las empresas de IA y sus clientes causan daños, deben ser considerados responsables”. Para demostrar su punto sobre el daño, Blumenthal había introducido sus comentarios con una grabación de sí mismo hablando sobre la necesidad de regulación, pero eran palabras que en realidad nunca pronunció. Tanto «su» voz como «su» declaración habían sido fabricadas por inteligencia artificial. Las implicaciones, especialmente para los políticos en la sala, fueron escalofriantes.
Descubrir cómo evaluar el daño o determinar la responsabilidad puede ser tan complicado como descubrir cómo regular una tecnología que se mueve tan rápido que, sin darse cuenta, está rompiendo todo a su paso. Altman, en su testimonio, planteó la idea de que el Congreso creara una nueva agencia gubernamental encargada de otorgar licencias a lo que llamó modelos de IA «poderosos» (aunque no está claro cómo se definiría esa palabra en la práctica). Aunque esto no es, a primera vista, una mala idea, tiene el potencial de ser egoísta. Como Clem Delangue, director general de la startup de IA Hugging Face, tuiteó, “Exigir una licencia para entrenar modelos sería . . . concentrar aún más el poder en manos de unos pocos”. En el caso de OpenAI, que ha sido capaz de desarrollar sus grandes modelos de lenguaje sin supervisión gubernamental u otros obstáculos regulatorios, pondría a la empresa muy por delante de sus competidores y consolidaría su posición de líder, al tiempo que limitaría los nuevos entrantes al campo.
Si esto sucediera, no solo daría a empresas como OpenAI y Microsoft (que utiliza GPT-4 en varios de sus productos, incluido su motor de búsqueda Bing) una ventaja económica, sino que podría erosionar aún más el libre flujo de información e ideas. Gary Marcus, el profesor y empresario de IA, dijo a los senadores que «existe un riesgo real de una especie de tecnocracia combinada con la oligarquía, donde un pequeño número de empresas influye en las creencias de las personas» y «hacen eso con datos que ni siquiera conocemos». saber sobre.» Se refería al hecho de que OpenAI y otras empresas han mantenido en secreto los datos con los que se han entrenado sus grandes modelos de lenguaje, lo que hace imposible determinar sus sesgos inherentes o evaluar realmente su seguridad.
El peligro más inminente de los LLM como ChatGPT, señaló el senador Josh Hawley, de Missouri, es su capacidad para manipular a los votantes. “Es una de mis áreas de mayor preocupación”, le dijo Altman. “La capacidad más general de estos modelos para manipular, persuadir, proporcionar una especie de desinformación interactiva uno a uno”, dijo, “dado que nos enfrentaremos a una elección el próximo año, y estos modelos están mejorando, creo que esta es un área importante de preocupación”.
La forma más conveniente de eliminar esta preocupación sería que OpenAI tome la iniciativa y retire sus LLM del mercado hasta que ya no tengan la capacidad de manipular a los votantes, propagar información errónea o socavar el proceso democrático de cualquier otra manera. Eso realmente sería, para citar al senador Durbin, «histórico». Pero eso no se ofreció en la sala de audiencias. En cambio, gran parte de la discusión se centró en qué tipo de agencia reguladora, si alguna, podría crearse, y quién debería formar parte de ella, y si sería posible hacer que dicha agencia fuera internacional. Fue un fascinante ejercicio de futuro que ignoró el peligro presente. El Senador Blumenthal les dijo a sus colegas: “El Congreso tiene una opción ahora. Tuvimos la misma elección cuando nos enfrentamos a las redes sociales. No supimos aprovechar ese momento”. Con una elección inminente y esta tecnología en juego, uno no necesita el poder predictivo de la inteligencia artificial para reconocer que los legisladores, a pesar de su curiosidad y cortesía bipartidista, también se han perdido este momento. ♦