Saltar al contenido

Solo hay una pregunta que importa con la IA

6 de abril de 2023

A El grupo llamado Future of Life Institute ha hecho circular una petición, firmada por casi 3000 personas dentro y alrededor de la industria de la tecnología, pidiendo una moratoria de seis meses en experimentos a gran escala con inteligencia artificial (IA). La petición ha desencadenado un gran debate.

Quienes han firmado la petición señalan que los desarrolladores de GPT-4 y otros modelos de IA de gran lenguaje prometen que su tecnología cambiará el curso de la civilización, pero afirman que no han tomado las medidas adecuadas para proteger a la civilización de daños. Enmarcan el futuro de la IA en términos apocalípticos. Aquellos que se oponen a la petición se dividen en dos grandes grupos: aquellos que se sienten cómodos con el statu quo de los modelos de IA en rápido desarrollo y aquellos que creen que los patrocinadores de la petición están tan enfocados en el futuro que ignoran los daños generalizados de las aplicaciones existentes de IA. El último argumento es particularmente interesante, ya que el grupo incluye a destacados tecnólogos y académicos en el campo de la IA, incluidos Timnit Gebru, Emily Bender y Margaret Mitchell.

Realmente necesitamos un enfoque diferente de la IA, cuyo primer paso es el reconocimiento de que la IA es solo la última manifestación de la máquina de publicidad de Silicon Valley. AI es solo un código donde los beneficios están muy por debajo de lo que prometen los promotores, con mucho más daño. Hemos visto esta película repetidamente (Facebook, TikTok, etc.) durante los últimos doce años, siempre con finales infelices. Ya es hora de que hagamos algo acerca de los cambios tecnológicos a gran escala que se imponen rápidamente en la sociedad.

La pregunta que deberíamos hacernos sobre la inteligencia artificial, y cualquier otra tecnología nueva, es si se permite a las corporaciones privadas realizar experimentos no controlados en toda la población sin barandillas ni redes de seguridad. ¿Debería ser legal que las corporaciones lancen productos a las masas antes de demostrar que esos productos son seguros?

Recomendado:  La inteligencia artificial y su impacto en el empleo

Más de TIEMPO


Leer más: La única forma de lidiar con la amenaza de la IA

La industria de la tecnología ha estado realizando experimentos descontrolados durante más de una década, en una amplia gama de categorías de productos, a menudo con resultados catastróficos. En 2012, por ejemplo, Facebook realizó un experimento en el que pusieron tristes a 155.000 personas, sin su conocimiento, sin su permiso. Instagram, Snapchat y TikTok se diseñaron en gran medida para crear envidia en los adolescentes, sin tener en cuenta los daños psicológicos. Las aplicaciones relativamente limitadas de IA ya han permitido violaciones de derechos civiles en préstamos hipotecarios, revisión de currículums y vigilancia.

Con las IA de modelo de lenguaje grande, la escala de los experimentos ha cambiado, aumentando en dos órdenes de magnitud o más en relación con las primeras IA. Chat GPT, un gran modelo de lenguaje que llegó a mil millones de usuarios en total, y 100 millones de usuarios activos, solo dos meses después de su presentación, ha sido llamado un «generador de mentiras». Cuando Microsoft incorporó Chat GPT a su motor de búsqueda Bing, la gran cantidad de errores fácticos provocó un tsunami de críticas. A pesar de las fallas, la integración de Chat GPT hizo que el conteo diario de usuarios de Bing pasara los 100 millones por primera vez. Gracias a los respaldos tácitos y explícitos de los medios y los responsables políticos, millones de personas se han creído la exageración y han adoptado otro producto tecnológico peligroso.

Incluso Sam Altman, el CEO de Open AI, ha expresado su preocupación por el riesgo de la tecnología que está creando. Pero en lugar de tomar medidas para proteger a los consumidores, Altman está desarrollando modelos más grandes lo más rápido que puede.

Aquellos que apoyan el enfoque actual de la IA argumentan que no podemos darnos el lujo de reducir la velocidad porque estamos en una carrera con China. ¿En realidad? ¿Cómo inundar el ecosistema de la información con malas respuestas, desinformación y violaciones de los derechos civiles nos ayuda a competir con China? Históricamente, Estados Unidos tiene más éxito cuando se enfoca en sus valores fundamentales: la democracia, el derecho a la autodeterminación, la creatividad y el espíritu empresarial. Ganamos con aviones a reacción, bebidas carbonatadas (es decir, Coca-Cola) y entretenimiento. China gana cuando puede aprovechar su escala y su gobierno autoritario. Las IA basadas en contenido de alta calidad, operadas de manera consistente con los valores estadounidenses, mejorarían nuestra competitividad, pero ese no es el enfoque que está adoptando Silicon Valley. Quieren competir con China en los términos de China. Eso es loco.

Recomendado:  La inteligencia artificial necesita inteligencia de personas

Los daños de una IA mal desarrollada se han discutido en los círculos de políticas públicas desde al menos 2017, pero el Congreso y dos presidentes no han hecho nada. Lo sé porque he sido una de las personas que ha dado la alarma.

Los problemas con la IA no se pueden solucionar con una moratoria de seis meses. Lo que se requiere es un enfoque diferente para el desarrollo y despliegue de nuevas tecnologías, un enfoque que priorice la protección de la seguridad del consumidor, la democracia y otros valores sobre los beneficios para los accionistas. Si pudiéramos agitar una varita mágica y cambiar la cultura de la tecnología, no habría necesidad de una moratoria. Y una moratoria sin un camino claro hacia mejores prácticas de desarrollo no logra nada. La industria ha tratado durante mucho tiempo la autorregulación como una licencia para hacer lo que le plazca.

La IA es una gran promesa y la tecnología avanza rápidamente, pero solo puede ser tan buena como el contenido utilizado para entrenarla. Los ingenieros tienen la opción de entrenar IA en contenido creado por expertos, pero pocos eligen ese camino debido al costo. En cambio, entrenan sus sistemas con datos extraídos de forma gratuita de la web, a veces en violación de la ley de derechos de autor. Los desarrolladores de IA extraen contenido de sitios de alta calidad como Wikipedia, pero mucho más proviene de sitios que no distinguen entre información y desinformación. Si entrenas una IA en contenido de baja calidad, los resultados también serán de baja calidad. Dada la escala de productos como Chat GPT y GPT-4, existe un gran riesgo de inundar Internet con desinformación. Un ingeniero de Google renunció después de afirmar que su empresa había entrenado su propio modelo de lenguaje grande AI, Bard, en Chat GPT.

Recomendado:  Nueva Zelanda se proclama como el primero en el mundo en establecer estándares para el uso de algoritmos por parte del gobierno.

Mientras construyamos IA sobre contenido pésimo, los resultados serán pésimos. AI tendrá razón algunas veces, pero no podrá saber si la respuesta es correcta o incorrecta sin investigar más, lo que anula el propósito.

Durante la mayor parte de los últimos cuarenta años, el gobierno y la gente han dado a las empresas de tecnología una libertad casi total con respecto al desarrollo de productos. Los consumidores han adoptado nuevas tecnologías más o menos a ciegas, a pesar de la escalada de daños en los últimos catorce años. En el vacío regulatorio actual, los incentivos en tecnología son maximizar el valor para los accionistas, incluso si hacerlo socava valores fundamentales como la seguridad pública y la democracia. Las políticas de laissez-faire han llevado a la creación de una gran riqueza para un puñado relativo de empresarios e inversores, pero a un costo enorme para la sociedad en su conjunto.

La ventana se está cerrando para proteger a la democracia y al público de los productos tecnológicos cada vez más dañinos y la cultura que los crea. No podemos permitirnos más inacción.

Más lecturas obligadas de TIME


Contáctenos en letras@time.com.