Saltar al contenido

¿Qué hay detrás de la campaña de miedo sobre la IA?

4 de junio de 2023

Doomsaying es una vieja ocupación. La inteligencia artificial es un tema complejo. Es fácil temer lo que no entiendes. Estas tres verdades explican de alguna manera la simplificación excesiva y la dramatización que plagan las discusiones sobre la IA.

El 30 de mayo, los medios de comunicación de todo el mundo se llenaron con la noticia de otra carta abierta que afirmaba que la IA representa una amenaza existencial para la humanidad. Esta carta, publicada a través del Centro para la Seguridad de la IA, una organización sin fines de lucro, ha sido firmada por figuras importantes de la industria, incluidos Geoffrey Hinton y los directores ejecutivos de Google DeepMind, Open AI y Anthropic.

Sin embargo, diría que se justifica una buena dosis de escepticismo al considerar la narrativa del apocalíptico de la IA. Tras una inspección minuciosa, vemos que hay incentivos comerciales para generar miedo en el espacio de la IA.

Como investigador de inteligencia artificial general, me parece que el encuadre de la IA como una amenaza existencial tiene más en común con la filosofía del siglo XVII que con la informática.

¿Fue ChatGPT un ‘retoque’?

Cuando se lanzó ChatGPT a fines del año pasado, la gente estaba encantada, entretenida y horrorizada.

Pero ChatGPT no es tanto un avance en la investigación como un producto. La tecnología en la que se basa tiene varios años. En 2020 se lanzó una versión anterior de su modelo subyacente, GPT-3, con muchas de las mismas capacidades. Simplemente no era fácilmente accesible en línea para que todos pudieran jugar.

En 2020 y 2021, muchos otros y yo escribimos artículos sobre las capacidades y las deficiencias de GPT-3 y modelos similares, y el mundo siguió como siempre. Avance hasta hoy, y ChatGPT ha tenido un impacto increíble en la sociedad. ¿Qué cambió?

En marzo, los investigadores de Microsoft publicaron un artículo que afirmaba que GPT-4 mostraba «chispas de inteligencia artificial general». AGI es objeto de una variedad de definiciones en competencia, pero en aras de la simplicidad puede entenderse como IA con inteligencia a nivel humano.

Algunos interpretaron de inmediato que la investigación de Microsoft decía GPT-4 es un AGI. Según las definiciones de AGI con las que estoy familiarizado, esto ciertamente no es cierto. No obstante, se sumó a la exageración y el furor, y fue difícil no quedar atrapado en el pánico. Los científicos no son más inmunes al pensamiento grupal que cualquier otra persona.

El mismo día que se presentó el documento, The Future of Life Institute publicó una carta abierta en la que pedía una pausa de seis meses en el entrenamiento de modelos de IA más potentes que GPT-4, para permitir que todos hicieran un balance y planificaran con anticipación. Algunas de las luminarias de IA que lo firmaron expresaron su preocupación de que AGI representa una amenaza existencial para los humanos y que ChatGPT está demasiado cerca de AGI para su comodidad.

Recomendado:  ElectrifAi logra el estado de competencia de AWS Machine Learning en IA aplicada

Poco después, el destacado investigador de seguridad de la IA, Eliezer Yudkowsky, que ha estado comentando sobre los peligros de la IA superinteligente desde mucho antes de 2020, llevó las cosas un paso más allá. Afirmó que estábamos en camino de construir una «IA superhumanamente inteligente», en cuyo caso «lo obvio que sucedería» es «literalmente, todos en la Tierra morirán». Incluso sugirió que los países deben estar dispuestos a arriesgarse a una guerra nuclear para hacer cumplir la regulación de IA a través de las fronteras.

No considero a la IA una amenaza existencial inminente

Un aspecto de la investigación de seguridad de la IA es abordar los peligros potenciales que podría presentar la AGI. Es un tema difícil de estudiar porque hay poco acuerdo sobre qué es la inteligencia y cómo funciona, y mucho menos sobre lo que podría implicar una superinteligencia. Como tal, los investigadores deben confiar tanto en la especulación y el argumento filosófico como en la evidencia y la prueba matemática.

Hay dos razones por las que ChatGPT y sus derivados no me preocupan.

Primero, ni siquiera se acerca al tipo de superinteligencia artificial que posiblemente podría representar una amenaza para la humanidad. Los modelos que lo sustentan son de aprendizaje lento que requieren inmensos volúmenes de datos para construir algo parecido a los conceptos versátiles que los humanos pueden inventar a partir de solo unos pocos ejemplos. En este sentido, no es “inteligente”.

En segundo lugar, muchos de los escenarios AGI más catastróficos dependen de premisas que encuentro inverosímiles. Por ejemplo, parece haber una suposición prevaleciente (pero tácita) de que la inteligencia suficiente equivale a un poder ilimitado en el mundo real. Si esto fuera cierto, más científicos serían multimillonarios.

Recomendado:  El servicio de atención al cliente de Turbo-Carga con Inteligencia Artificial

La cognición, tal como la entendemos en los humanos, tiene lugar como parte de un entorno físico (que incluye nuestros cuerpos), y este entorno impone limitaciones. El concepto de IA como una «mente de software» sin restricciones de hardware tiene más en común con el dualismo del siglo XVII (la idea de que la mente y el cuerpo son separables) que con las teorías contemporáneas de la mente que existe como parte del mundo físico.

¿Por qué la repentina preocupación?

Aún así, la condenación es anticuada, y los eventos de los últimos años probablemente no hayan ayudado. Pero puede haber más en esta historia de lo que parece.

Entre las figuras prominentes que piden la regulación de la IA, muchas trabajan para las empresas de IA establecidas o tienen vínculos con ellas. Esta tecnología es útil y hay dinero y poder en juego, por lo que infundir miedo presenta una oportunidad.

Casi todo lo relacionado con la creación de ChatGPT se ha publicado en una investigación a la que cualquiera puede acceder. Los competidores de OpenAI pueden (y lo han hecho) replicar el proceso, y no pasará mucho tiempo antes de que las alternativas gratuitas y de código abierto inunden el mercado.

Este punto se dejó claro en un memorando supuestamente filtrado de Google titulado «No tenemos foso, y OpenAI tampoco». Un foso es una forma de asegurar su negocio frente a los competidores.

Yann LeCun, quien lidera la investigación de IA en Meta, dice que estos modelos deberían ser abiertos ya que se convertirán en infraestructura pública. Él y muchos otros no están convencidos de la narrativa fatal de AGI.

En particular, Meta no fue invitada cuando el presidente de EE. UU., Joe Biden, se reunió recientemente con los líderes de Google DeepMind y OpenAI. Eso es a pesar del hecho de que Meta es casi seguro un líder en investigación de IA; produjo PyTorch, el marco de aprendizaje automático que OpenAI usó para hacer GPT-3.

Recomendado:  AI apoya a los pueblos desplazados y refugiados en Ucrania y más allá | Noticias

En las reuniones de la Casa Blanca, el director ejecutivo de OpenAI, Sam Altman, sugirió que el gobierno de EE. UU. debería otorgar licencias a aquellos en quienes se confía para entrenar modelos de IA de manera responsable. Licencias, como el director ejecutivo de Stability AI, Emad Mostaque lo pone“son una especie de foso”.

Empresas como Google, OpenAI y Microsoft tienen mucho que perder si permiten que florezcan competidores pequeños e independientes. Traer licencias y regulación ayudaría a consolidar su posición como líderes del mercado y obstaculizaría la competencia antes de que pueda surgir.

Si bien la regulación es apropiada en algunas circunstancias, las regulaciones que se aprueban apresuradamente favorecerán a los titulares y sofocarán la competencia pequeña, libre y de fuente abierta.

Este artículo apareció por primera vez en The Conversation.