¿Es hora de frenar el desarrollo de la inteligencia artificial (IA)? Si en silencio te has hecho esa pregunta, no estás solo.
La semana pasada, una gran cantidad de luminarias de IA firmaron una carta abierta pidiendo una pausa de seis meses en el desarrollo de modelos más potentes que GPT-4; Investigadores europeos pidieron regulaciones de IA más estrictas; y el investigador y crítico de IA desde hace mucho tiempo, Eliezer Yudkowsky, exigió un cierre completo del desarrollo de IA en las páginas de la revista TIME.
Mientras tanto, la industria no muestra signos de desaceleración. En marzo, un alto ejecutivo de inteligencia artificial en Microsoft supuestamente habló de la presión «muy, muy alta» del director ejecutivo Satya Nadella para que el GPT-4 y otros modelos nuevos lleguen al público «a una velocidad muy alta».
Trabajé en Google hasta 2020, cuando lo dejé para estudiar el desarrollo de IA responsable, y ahora investigo la colaboración creativa entre humanos e IA. Estoy entusiasmado con el potencial de la inteligencia artificial y creo que ya está marcando el comienzo de una nueva era de creatividad. Sin embargo, creo que una pausa temporal en el desarrollo de sistemas de IA más potentes es una buena idea. Déjame explicarte por qué.
¿Qué es GPT-4 y qué pide la carta?
La carta abierta publicada por el Future of Life Institute, una organización sin fines de lucro de EE. UU., hace una solicitud directa a los desarrolladores de IA:
Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4.
Entonces, ¿qué es GPT-4? Al igual que su predecesor GPT-3.5 (que impulsa el popular chatbot ChatGPT), GPT-4 es un tipo de software generativo de inteligencia artificial llamado «modelo de lenguaje grande», desarrollado por OpenAI.
GPT-4 es mucho más grande y ha sido entrenado con muchos más datos. Al igual que otros modelos de idiomas grandes, GPT-4 funciona adivinando la siguiente palabra en respuesta a las indicaciones, pero, no obstante, es increíblemente capaz.
En las pruebas, pasó los exámenes legales y médicos, y puede escribir software mejor que los profesionales en muchos casos. Y su gama completa de habilidades aún está por descubrir.
Bueno, malo y simplemente perturbador
Es probable que GPT-4 y modelos como este tengan enormes efectos en muchas capas de la sociedad.
Por el lado positivo, podrían mejorar la creatividad humana y el descubrimiento científico, reducir las barreras para el aprendizaje y usarse en herramientas educativas personalizadas. En el lado negativo, podrían facilitar ataques de phishing personalizados, producir desinformación a gran escala y usarse para piratear la seguridad de la red alrededor de los sistemas informáticos que controlan la infraestructura vital.
La propia investigación de OpenAI sugiere que modelos como GPT-4 son «tecnologías de propósito general» que afectarán a alrededor del 80% de la fuerza laboral de EE. UU.
Capas de civilización y el ritmo del cambio.
El escritor estadounidense Stewart Brand ha argumentado que una “civilización saludable” requiere diferentes sistemas o capas para moverse a diferentes velocidades:
Las capas rápidas innovan; las capas lentas se estabilizan. El conjunto combina el aprendizaje con la continuidad.
En el modelo de “capas de ritmo” de Brand, las capas inferiores cambian más lentamente que las capas superiores.
La tecnología generalmente se ubica cerca de la cima, en algún lugar entre la moda y el comercio. Cosas como la regulación, los sistemas económicos, las barreras de seguridad, los marcos éticos y otros aspectos existen en las capas más lentas de gobernanza, infraestructura y cultura.
Leer más: Cómo se verá la asistencia generativa de inteligencia artificial de Google en Workspace (cuando finalmente se lance)
En este momento, la tecnología se está acelerando mucho más rápido que nuestra capacidad para comprenderla y regularla, y si no tenemos cuidado, también generará cambios en esas capas inferiores que son demasiado rápidas para la seguridad.
El sociobiólogo estadounidense EO Wilson describió así los peligros de un desajuste en los diferentes ritmos de cambio:
El verdadero problema de la humanidad es el siguiente: tenemos emociones paleolíticas, instituciones medievales y tecnología divina.
¿Hay buenas razones para mantener el rápido ritmo actual?
Algunos argumentan que si los principales laboratorios de IA se ralentizan, otros jugadores no alineados o países como China los superarán.
Sin embargo, entrenar sistemas complejos de IA no es fácil. OpenAI está por delante de sus competidores estadounidenses (incluidos Google y Meta), y los desarrolladores en China y otros países también están rezagados.
Es poco probable que los «grupos rebeldes» o los gobiernos superen las capacidades de GPT-4 en un futuro previsible. La mayor parte del talento, el conocimiento y la infraestructura informática de la IA se concentran en unos pocos laboratorios de primer nivel.
Otros críticos de la carta del Future of Life Institute dicen que se basa en una percepción exagerada de las capacidades de IA actuales y futuras.
Sin embargo, ya sea que crea o no que la IA alcanzará un estado de superinteligencia general, es innegable que esta tecnología tendrá un impacto en muchas facetas de la sociedad humana. Parece sensato tomarse el tiempo para dejar que nuestros sistemas se ajusten al ritmo del cambio.
Disminuir la velocidad es sabio
Si bien hay mucho espacio para el desacuerdo sobre detalles específicos, creo que la carta del Future of Life Institute apunta en una dirección inteligente: tomar posesión del ritmo del cambio tecnológico.
A pesar de lo que hemos visto de la interrupción causada por las redes sociales, Silicon Valley todavía tiende a seguir el infame lema de Facebook de «muévete rápido y rompe cosas».
Creo que un curso de acción inteligente es reducir la velocidad y pensar hacia dónde queremos llevar estas tecnologías, permitiendo que nuestros sistemas y nosotros mismos nos ajustemos y participemos en conversaciones diversas y reflexivas. No se trata de parar, sino de avanzar a un ritmo sostenible de progreso. Podemos elegir dirigir esta tecnología, en lugar de asumir que tiene una vida propia que no podemos controlar.
Después de pensarlo un poco, agregué mi nombre a la lista de firmantes de la carta abierta, que según el Future of Life Institute ahora incluye a unas 50,000 personas. Si bien una moratoria de seis meses no resolvería todo, sería útil: establece la intención correcta, priorizar la reflexión sobre beneficios y riesgos sobre el progreso acrítico, acelerado y con fines de lucro.
Míralo nunca decir «necesitamos más regulación sobre la IA» https://t.co/kDNALQkz4G
— Avijit Ghosh (@evijitghosh) 13 de marzo de 2023