Los nuevos sistemas de IA nos llegan tan rápido y furiosos que parece que no hay nada que podamos hacer para detenerlos el tiempo suficiente para asegurarnos de que estén a salvo.
Pero eso no es cierto. Hay cosas concretas que los reguladores pueden hacer ahora mismo para evitar que las empresas de tecnología lancen sistemas riesgosos.
En un nuevo informe, el AI Now Institute, un centro de investigación que estudia las implicaciones sociales de la inteligencia artificial, ofrece una hoja de ruta que especifica exactamente qué pasos pueden tomar los formuladores de políticas. Es refrescantemente pragmático y factible, gracias a la experiencia gubernamental de los autores Amba Kak y Sarah Myers West. Ambos exasesores de la presidenta de la Comisión Federal de Comercio, Lina Khan, se enfocan en lo que los reguladores pueden hacer de manera realista hoy.
El gran argumento es que si queremos frenar los daños de la IA, debemos frenar la concentración de poder en Big Tech.
Para construir sistemas de inteligencia artificial de última generación, necesita recursos (un enorme tesoro de datos, una gran cantidad de poder de cómputo) y solo unas pocas empresas tienen actualmente esos recursos. Estas empresas acumulan millones que utilizan para presionar al gobierno; también se vuelven «demasiado grandes para fallar», e incluso los gobiernos dependen cada vez más de ellos para los servicios.
Así que tenemos una situación en la que unas pocas empresas pueden establecer los términos para todos: pueden construir sistemas de IA enormemente importantes y luego lanzarlos cómo y cuándo quieran, con muy poca responsabilidad.
“Un puñado de actores privados ha acumulado poder y recursos que rivalizan con los estados-nación mientras desarrollan y evangelizan la inteligencia artificial como infraestructura social crítica”, señala el informe.
Lo que los autores están destacando es el absurdo oculto a simple vista de cuánto poder hemos cedido sin saberlo a unos pocos actores que no son elegidos democráticamente.
Cuando piensa en los riesgos de sistemas como ChatGPT y Bing con GPT-4, como el riesgo de difundir desinformación que puede fracturar la sociedad democrática, es increíble que empresas como OpenAI y Microsoft hayan podido lanzar estos sistemas a su propia discreción. La misión de OpenAI, por ejemplo, es «garantizar que la inteligencia artificial general beneficie a toda la humanidad», pero hasta ahora, la empresa, no el público, ha llegado a definir lo que implica beneficiar a toda la humanidad.
El informe dice que ya es hora de recuperar el poder de las empresas y recomienda algunas estrategias para hacerlo. Vamos a desglosarlos.
Estrategias concretas para hacerse con el control de la IA
Uno de los absurdos de la situación actual es que cuando los sistemas de IA producen daños, corresponde a los investigadores, los periodistas de investigación y el público documentar los daños e impulsar el cambio. Pero eso significa que la sociedad siempre lleva una pesada carga y se esfuerza por ponerse al día después del hecho.
Por lo tanto, la principal recomendación del informe es crear políticas que coloquen la carga sobre las propias empresas para demostrar que no están haciendo daño. Así como un fabricante de medicamentos tiene que demostrarle a la FDA que un nuevo medicamento es lo suficientemente seguro para salir al mercado, las empresas de tecnología deberían demostrar que sus sistemas de IA son seguros antes de su lanzamiento.
Eso sería una mejora significativa con respecto a los esfuerzos existentes para mejorar el panorama de la IA, como la floreciente industria de las «auditorías», donde los evaluadores externos miran debajo del capó para obtener transparencia sobre cómo funciona un sistema algorítmico y eliminar sesgos o problemas de seguridad. Es un buen paso, pero el informe dice que no debería ser la respuesta política principal, porque nos engaña haciéndonos pensar en el “sesgo” como un problema puramente técnico con una solución puramente técnica.
Pero el sesgo también tiene que ver con cómo se usa la IA en el mundo real. Toma reconocimiento facial. “No es un progreso social hacer que las personas negras sean igualmente visibles para el software que inevitablemente se armará más contra nosotros”, señaló Zoé Samudzi en 2019.
Aquí, nuevamente, el informe nos recuerda algo que debería ser obvio pero que a menudo se pasa por alto. En lugar de tomar una herramienta de IA como un hecho y preguntar cómo podemos hacerla más justa, deberíamos comenzar con la pregunta: ¿Debería existir esta herramienta de IA? En algunos casos, la respuesta será no, y entonces la respuesta correcta no es una auditoría, sino una moratoria o una prohibición. Por ejemplo, la tecnología de «reconocimiento de emociones» basada en pseudociencia o «gaydar algorítmico» no debe implementarse, punto.
La industria de la tecnología es ágil y, a menudo, cambia de táctica para adaptarse a sus objetivos. A veces pasa de resistirse a la regulación a afirmar que la apoya, como vimos cuando se enfrentó a un coro que pedía la prohibición del reconocimiento facial. Empresas como Microsoft apoyaron movimientos suaves que sirvieron para adelantarse reforma más audaz; prescribieron auditar la tecnología, una postura mucho más débil que prohibir el uso policial por completo.
Por lo tanto, dice el informe, los reguladores deben estar atentos a movimientos como este y estar listos para cambiar si sus enfoques son cooptados o vaciados por la industria.
Los reguladores también deben ser creativos, utilizando diferentes herramientas en la caja de herramientas de políticas para obtener el control de la IA, incluso si esas herramientas generalmente no se usan juntas.
Cuando las personas hablan de «política de IA», a veces piensan que es distinta de otras áreas de política, como la privacidad de datos. Pero la «IA» es solo un compuesto de datos, algoritmos y poder computacional. Así que la política de datos es política de IA.
Una vez que recordemos eso, podemos considerar enfoques que limiten la recopilación de datos, no solo para proteger la privacidad del consumidor, sino también como mecanismos para mitigar algunas de las aplicaciones de IA más riesgosas. Limite el suministro de datos y estará limitando lo que se puede construir.
Del mismo modo, es posible que no estemos acostumbrados a hablar de IA al mismo tiempo que la ley de competencia o antimonopolio. Pero ya tenemos leyes antimonopolio en los libros y la administración Biden ha señalado que está dispuesta a aplicar esas leyes con audacia e imaginación para apuntar a la concentración de poder entre las empresas de IA.
En última instancia, la mayor verdad oculta a simple vista que revela el informe es que los humanos controlan qué tecnologías implementamos y cuándo. Los últimos años nos han visto imponer moratorias y prohibiciones en la tecnología de reconocimiento facial; en el pasado, también organizamos una moratoria y creamos prohibiciones claras en el campo de la genética humana. La inevitabilidad tecnológica es un mito.
“No hay nada en la inteligencia artificial que sea inevitable”, dice el informe. “Solo una vez que dejemos de ver la IA como sinónimo de progreso, podremos establecer un control popular sobre la trayectoria de estas tecnologías”.
Ayúdanos a celebrar nueve años de Vox
Desde el lanzamiento de Vox en 2014, nuestra audiencia ha apoyado nuestra misión de muchas maneras significativas. Más de 80.000 personas han respondido a las solicitudes de ayuda con nuestros informes. Innumerables maestros nos han contado cómo están usando nuestro trabajo en su salón de clases. Y en los tres años desde que lanzamos el programa Vox Contributions, decenas de miles de personas han contribuido para ayudar a mantener nuestro trabajo único gratuito. Estamos comprometidos a mantener nuestro trabajo gratuito para todos los que lo necesiten, porque creemos que el periodismo explicativo de alta calidad es un bien público. No podemos confiar solo en los anuncios para hacer eso. ¿Nos ayudarás a mantener Vox gratis durante los próximos nueve años haciendo una donación hoy?
Si, doy $120/año
Si, doy $120/año
Aceptamos tarjeta de crédito, Apple Pay y
Pago de Google. También puedes contribuir a través de