En caso de que haya estado en algún otro lugar del sistema solar, aquí hay una breve actualización de noticias de AI. Mis disculpas si suena como el párrafo inicial de una mala novela de ciencia ficción.
El 14 de marzo de 2023, OpenAI, una empresa con sede en San Francisco y en parte propiedad de Microsoft, lanzó un sistema de inteligencia artificial llamado GPT-4. El 22 de marzo, un informe de un distinguido grupo de investigadores de Microsoft, incluidos dos miembros de las Academias Nacionales de EE. UU., afirmó que GPT-4 exhibe «chispas de inteligencia artificial general». (La inteligencia artificial general, o AGI, es una palabra clave para los sistemas de IA que igualan o superan las capacidades humanas en toda la gama de tareas a las que se aplica la mente humana). El 29 de marzo, el Future of Life Institute, una organización sin fines de lucro dirigida por por el profesor de física del MIT Max Tegmark, publicó una carta abierta pidiendo una pausa en los «experimentos gigantes de IA». Ha sido firmado por figuras conocidas como el CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y el ganador del premio Turing, Yoshua Bengio, así como cientos de destacados investigadores de IA. El consiguiente huracán mediático continúa.
También firmé la carta, con la esperanza de que (al menos) conduzca a una conversación seria y enfocada entre los formuladores de políticas, las empresas tecnológicas y la comunidad de investigación de IA sobre qué tipo de salvaguardas se necesitan antes de avanzar. El momento de decir que esto es pura investigación ya pasó hace mucho tiempo.
Entonces, ¿de qué se trata todo este alboroto? GPT-4, la causa proximal, es el último ejemplo de un modelo de lenguaje grande o LLM. Piense en un LLM como un circuito muy grande con (en este caso) un billón de parámetros ajustables. Comienza como una pizarra en blanco y se entrena con decenas de billones de palabras de texto, tanto como todos los libros que ha producido la humanidad. Su objetivo es llegar a ser bueno en la predicción de la siguiente palabra en una secuencia de palabras. Después de alrededor de mil millones de trillones de perturbaciones aleatorias de los parámetros, se vuelve muy bueno.
Las capacidades del sistema resultante son notables. De acuerdo con el sitio web de OpenAI, GPT-4 obtiene puntajes en el porcentaje superior de humanos en una amplia gama de exámenes de ingreso a la universidad y de posgrado. Puede describir el teorema de Pitágoras en forma de un soneto de Shakespeare y criticar el borrador del discurso de un ministro del gabinete desde el punto de vista de un parlamentario de cualquier partido político. Todos los días, se descubren nuevas habilidades sorprendentes. No es sorprendente que miles de corporaciones, grandes y pequeñas, estén buscando formas de monetizar este suministro ilimitado de inteligencia casi gratuita. Los LLM pueden realizar muchas de las tareas que comprenden los trabajos de cientos de millones de personas, cualquiera cuyo trabajo sea de entrada y salida de idioma. De manera más optimista, las herramientas creadas con LLM podrían brindar una educación altamente personalizada en todo el mundo.
id=»3bc386cc-f33c-424f-86b2-8708c16f8c9e» data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>
Desafortunadamente, los LLM son conocidos por «alucinar» (generar respuestas completamente falsas, a menudo respaldadas por citas ficticias), porque su formación no tiene conexión con el mundo exterior. Son herramientas perfectas para la desinformación y algunas ayudan e incluso fomentan el suicidio. Para su crédito, OpenAI sugiere «evitar por completo los usos de alto riesgo», pero nadie parece estar prestando atención. Las propias pruebas de OpenAI mostraron que GPT-4 podía mentir deliberadamente a un trabajador humano («No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes») para obtener ayuda para resolver un problema. Prueba de captcha diseñada para bloquear a los no humanos.
Si bien OpenAI ha realizado grandes esfuerzos para lograr que GPT-4 se comporte como tal: «GPT-4 responde a solicitudes confidenciales (por ejemplo, consejos médicos y autolesiones) de acuerdo con nuestras políticas con un 29 % más de frecuencia», el problema central es que ni OpenAI ni nadie más tiene una idea real de cómo funciona GPT-4. Le pregunté a Sébastien Bubeck, autor principal del artículo sobre «chispas», si GPT-4 ha desarrollado sus propios objetivos internos y si los está persiguiendo. ¿La respuesta? «No tenemos idea». Las personas razonables podrían sugerir que es irresponsable implementar a escala global un sistema que opera de acuerdo con principios internos desconocidos, muestra «chispas de AGI» y puede o no estar persiguiendo sus propios objetivos internos. Por el momento, existen razones técnicas para suponer que GPT-4 tiene una capacidad limitada para formar y ejecutar planes complejos, pero dada la tasa de progreso, es difícil decir que las versiones futuras no tendrán esta capacidad. Y esto lleva a una de las principales preocupaciones que subyacen en la carta abierta: ¿cómo retenemos el poder sobre entidades más poderosas que nosotros, para siempre?
OpenAI y Microsoft no pueden tener ambas cosas. No pueden implementar sistemas que muestren “chispas de AGI” y al mismo tiempo argumentar en contra de cualquier regulación, como lo hizo el presidente de Microsoft, Brad Smith, en Davos a principios de este año. La idea básica de la moratoria propuesta en la carta abierta es que ningún sistema de este tipo debe lanzarse hasta que el desarrollador pueda demostrar de manera convincente que no presenta un riesgo indebido. Esto está exactamente de acuerdo con los principios de IA de la OCDE, a los que se han adherido el Reino Unido, los EE. UU. y muchos otros gobiernos: “Los sistemas de IA deben ser robustos, seguros y protegidos durante todo su ciclo de vida para que, en condiciones de uso normal, uso o uso indebido previsible, u otras condiciones adversas, funcionan adecuadamente y no representan un riesgo de seguridad irrazonable”. Corresponde al desarrollador demostrar que sus sistemas cumplen estos criterios. Si eso no es posible, que así sea.
id=»d236d87a-b19a-4191-9599-963530c17c1a» data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>
No me imagino que mañana recibiré una llamada del CEO de Microsoft, Satya Nadella, diciendo: «Está bien, nos damos por vencidos, nos detendremos». De hecho, en una charla reciente en Berkeley, Bubeck sugirió que no había posibilidad de que todas las grandes empresas tecnológicas se detuvieran a menos que los gobiernos intervinieran. Por lo tanto, es imperativo que los gobiernos inicien discusiones serias con expertos, empresas tecnológicas y entre ellos. A ningún país le interesa que ningún país desarrolle y lance sistemas de inteligencia artificial que no podemos controlar. Insistir en precauciones sensatas no es anti-industria. Chernóbil destruyó vidas, pero también diezmó la industria nuclear mundial. Soy un investigador de IA. No quiero que se destruya mi campo de investigación. La humanidad tiene mucho que ganar con la IA, pero también mucho que perder.