So el modelo de procesamiento de lenguaje ChatGPT irrumpió en un mundo asombrado y el aire se llenó de gritos de alegría y gritos de indignación o lamentación. Los encantados fueron los que quedaron paralizados al descubrir que una máquina aparentemente podía realizar un encargo escrito de manera competente. La indignación se desencadenó por temores de redundancia por parte de las personas cuyo empleo requiere la capacidad de escribir una prosa profesional. Y los lamentos procedían de gente seria (muchos de ellos profesores de varios niveles) cuyo trabajo diario consiste en calificar ensayos escritos hasta ahora por estudiantes.
Hasta ahora, tan predecible. Si sabemos algo de la historia, es que generalmente sobreestimamos el impacto a corto plazo de las nuevas tecnologías de la comunicación, mientras que subestimamos enormemente sus implicaciones a largo plazo. Así sucedió con la prensa escrita, las películas, la radiodifusión y la televisión e Internet. Y sospecho que acabamos de saltar al mismo tiovivo cognitivo.
Sin embargo, antes de presionar el botón de pánico, vale la pena examinar la naturaleza de la bestia. Es lo que la multitud de aprendizaje automático llama un modelo de lenguaje grande (LLM) que se ha aumentado con una interfaz conversacional. El modelo subyacente ha sido entrenado en cientos de terabytes de texto, la mayoría de ellos probablemente extraídos de la web, por lo que se podría decir que ha «leído» (o al menos ingerido) casi todo lo que se ha publicado en línea. Como resultado, ChatGPT es bastante hábil para imitar el lenguaje humano, una función que ha alentado a muchos de sus usuarios al antropomorfismo, es decir, ver el sistema más como un ser humano que como una máquina. De ahí los chillidos de alegría antes mencionados, y también el extraño usuario equivocado que aparentemente cree que la máquina es de alguna manera «consciente».
El antídoto más conocido contra esta tendencia a antropomorfizar sistemas como ChatGPT es Talking About Large Language Models, un artículo reciente del distinguido erudito en IA Murray Shanahan, disponible en arXiv. En él, explica que los LLM son modelos matemáticos de la distribución estadística de «tokens» (palabras, partes de palabras o caracteres individuales, incluidos los signos de puntuación) en un vasto corpus de texto generado por humanos. Entonces, si le das al modelo un mensaje como «La primera persona en caminar sobre la luna fue…» y responde «Neil Armstrong», eso no es porque el modelo sepa algo sobre la luna o la misión Apolo, sino porque nosotros en realidad le están haciendo la siguiente pregunta: “Dada la distribución estadística de palabras en el vasto corpus público de [English] texto, ¿qué palabras es más probable que sigan la secuencia ‘La primera persona en caminar sobre la luna fue’? Una buena respuesta a esta pregunta es ‘Neil Armstrong’”.
Entonces, lo que está sucediendo es la «predicción del siguiente token», que es lo que también implican muchas de las tareas que asociamos con la inteligencia humana. Esto puede explicar por qué tanta gente está tan impresionada con el rendimiento de ChatGPT. Está resultando útil en muchas aplicaciones: resumir artículos largos, por ejemplo, o producir un primer borrador de una presentación que luego puede modificarse. Una de sus capacidades más inesperadas es como herramienta para ayudar a escribir código de computadora. Dan Shipper, un experto en software, Informes que pasó las Navidades experimentando con él como asistente de programación y concluyó que: “Es increíblemente bueno para ayudarte a comenzar un nuevo proyecto. Requiere toda la investigación, el pensamiento y la búsqueda de cosas y lo elimina… En 5 minutos puedes tener el trozo de algo que funciona y que antes hubiera tardado unas horas en ponerse en marcha». Sin embargo, su advertencia fue que primero tenía que saber sobre programación.
Eso me parece ser el comienzo de la sabiduría sobre ChatGPT: en el mejor de los casos, es un asistente, una herramienta que aumenta las capacidades humanas. Y está aquí para quedarse. En ese sentido, me recuerda, por extraño que parezca, al software de hoja de cálculo, que golpeó al mundo de los negocios como un rayo en 1979 cuando Dan Bricklin y Bob Frankston escribieron VisiCalc, el primer programa de hoja de cálculo para la computadora Apple II, que entonces se vendía principalmente en tiendas de aficionados. Un día, Steve Jobs y Steve Wozniak se dieron cuenta de que muchas de las personas que compraban su computadora no tenían barba ni cola de caballo, sino que vestían traje. Y ese software vende hardware, no al revés.
La noticia no pasó desapercibida para IBM y llevó a la compañía a crear la PC ya Mitch Kapor a escribir el programa de hoja de cálculo Lotus 1-2-3 para ella. Finalmente, Microsoft escribió su propia versión y la llamó Excel, que ahora se ejecuta en todas las máquinas de todas las oficinas del mundo desarrollado. Pasó de ser un aumento intrigante pero útil de las capacidades humanas a ser un accesorio mundano, sin mencionar la razón por la cual Kat Norton (también conocida como «Miss Excel») supuestamente obtiene sumas de seis cifras al día enseñando trucos de Excel en TikTok. Lo más probable es que alguien, en algún lugar, esté planeando hacer eso con ChatGPT. Y usando el bot para escribir los guiones.
lo que he estado leyendo
triple amenaza
The Third Magic es una meditación de Noah Smith sobre historia, ciencia e IA.
no mires atrás
Nostalgia for Decline in Deconvergent Britain es la larga publicación de blog de Adam Tooze sobre la larga historia del declive económico británico.
Los impactos de la desigualdad
¿Quién rompió la democracia estadounidense? es un ensayo perspicaz en el sitio de Project Syndicate por el premio Nobel Angus Deaton.