A A principios de este año, la empresa matriz de Facebook, Meta, le concedió acceso al investigador a un software de inteligencia artificial increíblemente potente, y lo filtró al mundo. Como antiguo investigador sobre la integridad cívica y los equipos de IA responsables de Meta, estoy aterrorizado por lo que podría suceder a continuación.
Aunque Meta fue violada por la filtración, resultó ganadora: los investigadores y codificadores independientes ahora están compitiendo para mejorar o construir sobre la base de LLaMA (Large Language Model Meta AI: la versión de marca de Meta de un modelo de lenguaje grande o LLM, el tipo de software subyacente a ChatGPT), y muchos comparten su trabajo abiertamente con el mundo.
Esto podría posicionar a Meta como propietario de la pieza central de la plataforma de IA dominante, de la misma manera que Google controla el sistema operativo Android de código abierto que los fabricantes de dispositivos construyen y adaptan a nivel mundial. Si Meta asegurara esta posición central en el ecosistema de IA, tendría influencia para dar forma a la dirección de la IA en un nivel fundamental, controlando tanto las experiencias de los usuarios individuales como estableciendo límites sobre lo que otras empresas pueden y no pueden hacer. De la misma manera que Google obtiene miles de millones de la publicidad, las ventas de aplicaciones y las transacciones de Android, esto podría preparar a Meta para un período altamente rentable en el espacio de la IA, cuya estructura exacta aún está por surgir.
Aparentemente, la compañía emitió avisos de eliminación para desconectar el código filtrado, ya que se suponía que solo era accesible para uso de investigación, pero luego de la filtración, el científico jefe de IA de la compañía, Yann LeCun, dijo: «La plataforma que ganará será el abierto”, lo que sugiere que la empresa puede simplemente funcionar con el modelo de código abierto como estrategia competitiva.
Si bien Bard de Google y ChatGPT de OpenAI son de uso gratuito, no son de código abierto. Bard y ChatGPT cuentan con equipos de ingenieros, moderadores de contenido y analistas de amenazas que trabajan para evitar que sus plataformas se utilicen para causar daño; en sus iteraciones actuales, (con suerte) no lo ayudarán a construir una bomba, planificar un ataque terrorista o hacer falso contenido diseñado para interrumpir una elección. Estas personas y los sistemas que construyen y mantienen mantienen a ChatGPT y Bard alineados con valores humanos específicos.
Sin embargo, el LLaMA de código semiabierto de Meta y sus modelos descendientes de lenguaje grande (LLM) pueden ser ejecutados por cualquier persona con suficiente hardware de computadora para admitirlos; la última generación se puede usar en computadoras portátiles disponibles comercialmente. Esto le da a cualquier persona, desde consultoras políticas sin escrúpulos hasta la agencia de inteligencia GRU de Vladimir Putin, con buenos recursos, la libertad de ejecutar la IA sin ningún sistema de seguridad.
De 2018 a 2020 trabajé en el equipo de integridad cívica de Facebook. Dediqué años de mi vida a luchar contra la interferencia en línea en la democracia de muchas fuentes. Mis colegas y yo jugamos largas partidas de golpear al topo con dictadores de todo el mundo que utilizaban un “comportamiento inauténtico coordinado”, contratando equipos de personas para crear manualmente cuentas falsas para promover sus regímenes, vigilar y hostigar a sus enemigos, fomentar disturbios e incluso promover el genocidio.
id=»4f16edb8-ec06-4965-8e7c-5d55aba9a98e» data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.ImageBlockElement» class=»dcr-173mewl»>
Supongo que el equipo de Putin ya está en el mercado en busca de algunas excelentes herramientas de inteligencia artificial para interrumpir las elecciones presidenciales de EE. UU. de 2024 (y probablemente también las de otros países). Puedo pensar en pocas adiciones mejores a su arsenal que los LLM emergentes disponibles gratuitamente como LLaMA, y la pila de software que se está construyendo a su alrededor. Podría usarse para hacer que el contenido falso sea más convincente (gran parte del contenido ruso implementado en 2016 tenía deficiencias gramaticales o estilísticas) o para producir mucho más, o incluso podría reutilizarse como un «clasificador» que escanea las plataformas de redes sociales en busca de particularmente contenido incendiario de estadounidenses reales para amplificar con comentarios y reacciones falsos. También podría escribir guiones convincentes para deepfakes que sinteticen videos de candidatos políticos diciendo cosas que nunca dijeron.
La ironía de todo esto es que las plataformas de Meta (Facebook, Instagram y WhatsApp) estarán entre los mayores campos de batalla para desplegar estas “operaciones de influencia”. Lamentablemente, el equipo de integridad cívica en el que trabajé se cerró en 2020 y, después de varias rondas de despidos, me temo que la capacidad de la empresa para luchar contra estas operaciones se ha visto obstaculizada.
Aún más preocupante, sin embargo, es que ahora hemos entrado en la «era del caos» de las redes sociales, y la proliferación de plataformas nuevas y en crecimiento, cada una con equipos de «integridad» o «confianza y seguridad» separados y mucho más pequeños, puede ser incluso menos bien posicionado que Meta para detectar y detener operaciones de influencia, especialmente en los últimos días y horas de las elecciones, que son sensibles al tiempo, cuando la velocidad es más crítica.
Pero mis preocupaciones no terminan con la erosión de la democracia. Después de trabajar en el equipo de integridad cívica de Facebook, pasé a gestionar equipos de investigación que trabajaban en IA responsable, registrando los daños potenciales de la IA y buscando formas de hacerla más segura y justa para la sociedad. Vi cómo los propios sistemas de IA de mi empleador podían facilitar la discriminación en la vivienda, hacer asociaciones racistas y excluir a las mujeres de ver las ofertas de trabajo visibles para los hombres. Fuera de los muros de la empresa, los sistemas de IA recomendaron injustamente sentencias de prisión más largas para las personas negras, no reconocieron con precisión los rostros de las mujeres de piel oscura y causaron innumerables incidentes adicionales de daños, miles de los cuales están catalogados en la base de datos de incidentes de IA.
Sin embargo, la parte aterradora es que los incidentes que describo anteriormente fueron, en su mayor parte, las consecuencias no deseadas de implementar sistemas de IA a escala. Cuando la IA está en manos de personas que abusan de ella deliberada y maliciosamente, los riesgos de desalineación aumentan exponencialmente, y se agravan aún más a medida que aumentan las capacidades de la IA.
Sería justo preguntar: ¿los LLM no se convertirán inevitablemente en código abierto de todos modos? Desde la filtración de LLaMA, muchas otras empresas y laboratorios se han unido a la carrera, algunos de los cuales publican LLM que rivalizan con LLaMA en poder con licencias de código abierto más permisivas. Un LLM basado en LLaMA promociona con orgullo su naturaleza «sin censura», citando su falta de controles de seguridad como una característica, no como un error. Meta parece estar solo hoy, sin embargo, por su capacidad para continuar lanzando modelos cada vez más poderosos combinados con su voluntad de ponerlos en manos de cualquiera que los quiera. Es importante recordar que si los actores maliciosos pueden obtener el código, es poco probable que les importe lo que dice el acuerdo de licencia.
id=»5d3499cc-62b3-4f0e-89dc-deb398d30473″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>
Estamos viviendo un momento de aceleración tan rápida de las tecnologías de IA que incluso detener su lanzamiento, especialmente su lanzamiento de código abierto, durante unos meses podría dar tiempo a los gobiernos para implementar regulaciones críticas. Esto es lo que piden los directores ejecutivos como Sam Altman, Sundar Pichai y Elon Musk. Las empresas tecnológicas también deben poner controles mucho más estrictos sobre quién califica como «investigador» para obtener acceso especial a estas herramientas potencialmente peligrosas.
Las plataformas más pequeñas (y los equipos vaciados de las más grandes) también necesitan tiempo para que sus equipos de confianza y seguridad/integridad se pongan al día con las implicaciones de los LLM para que puedan construir defensas contra los abusos. Las empresas de IA generativa y las plataformas de comunicaciones deben trabajar juntas para implementar marcas de agua para identificar el contenido generado por IA y las firmas digitales para verificar que el contenido producido por humanos es auténtico.
La carrera a la baja en la seguridad de la IA que estamos viendo en este momento debe detenerse. En las audiencias del mes pasado ante el Congreso de los EE. UU., tanto Gary Marcus, un experto en inteligencia artificial, como Sam Altman, director ejecutivo de OpenAI, hicieron un llamado para que se crearan nuevos organismos de gobierno internacional específicamente para la inteligencia artificial, similares a los organismos que gobiernan la seguridad nuclear. La UE está muy por delante de los EE. UU. en esto, pero, lamentablemente, es posible que su pionera Ley de Inteligencia Artificial de la UE no entre en vigor hasta 2025 o más tarde. Es demasiado tarde para marcar la diferencia en esta carrera.
Hasta que se implementen nuevas leyes y nuevos órganos de gobierno, lamentablemente tendremos que confiar en la paciencia de los directores ejecutivos de tecnología para evitar que las herramientas más poderosas y peligrosas caigan en las manos equivocadas. Así que, por favor, directores ejecutivos: disminuyamos un poco la velocidad antes de que rompan la democracia. Y legisladores: date prisa.
-
David Evan Harris es académico público del canciller en UC Berkeley, investigador principal en el Instituto Internacional de Ciencias de la Computación, asesor principal para la ética de la IA en el Instituto de Psicología de la Tecnología, académico afiliado al CITRIS Policy Lab y autor colaborador del Center for International Gobernanza Innovación