UA menos que hayas estado de vacaciones en Marte, o quizás en España (junto al secretario de transportes), puede que hayas notado algún alboroto en los medios sociales sobre algo llamado GPT-3. El bit GPT significa «pre-entrenamiento generativo» de un modelo de lenguaje que adquiere el conocimiento del mundo «leyendo» enormes cantidades de texto escrito. El «3» indica que esta es la tercera generación del sistema.
GPT-3 es un producto de OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco. En esencia, es un sistema de aprendizaje automático que ha sido alimentado (entrenado) con 45 terabytes de datos de texto. Dado que un terabyte (TB) es un trillón de bytes, eso es bastante. Habiendo digerido todo eso, el sistema puede generar todo tipo de contenido escrito – historias, código, jerga legal, poemas – si lo imprimimos con unas pocas palabras u oraciones.
Una explicación para la actual excitación es que la máquina parece ser bastante buena para «escribir» cosas que suenen originales. Recientemente, por ejemplo, alguien la preparó con una cita de un blogger aforístico que decía algo así: «Creo que encuentro la información suicida (¿hay un término mejor para esto que no sea tan deprimente? ¿cambio de identidad?) interesante por las mismas razones que otras personas encuentran la longevidad interesante».
En respuesta, GPT-3 produjo una entrada de blog que comenzó: «Lo entiendo. Pero siempre he estado más interesado en la otra palanca; resetea. Hay pocas razones para que la identidad persista a lo largo de 80 (o 200) años. Los legionarios extranjeros franceses y los maridos tramposos siempre han presumido nuevas identidades. La persistencia de la identidad sólo ha ocurrido recientemente como resultado de una fuerte centralización y registro gubernamental. Si vamos a perseguir la longevidad biológica, debemos permitir que se viva una diversidad de vidas… Así que tal vez no veo por qué nuestras primeras vidas deben ser las únicas que podamos explorar. Tal vez podamos tener vidas para diferentes espacios en nuestro tiempo limitado. O tal vez esto es sólo un deseo de mi parte.»
Las opiniones pueden legítimamente variar sobre si esto es profundo o incluso interesante. Una de las razones de la excitación que rodea al sistema es la especulación sobre su capacidad para hacer el trabajo que los humanos hacen actualmente – y por lo tanto para reemplazarlos. Pero lo que es seguro es que, dado que los datos de los que GPT-3 absorbió su «conocimiento» incluían un montón de cosas de Internet, incluyendo Google Books, Wikipedia y manuales de programación, su código contiene un sesgo implícito: GIGO (garbage-in-garbage-out) y todo eso.
Otra razón para la excitación es que los humanos siempre han estado fascinados por las máquinas que parecían ser capaces de responder inteligentemente a lo que les decimos. A mediados de la década de 1960, por ejemplo, el informático Joseph Weizenbaum quería demostrar la superficialidad de las interacciones hombre-máquina. Así que escribió un programa llamado Eliza que usaba guiones preescritos para responder a las entradas. El guión más famoso, Doctor, simulaba un psicoterapeuta Rogeriano – es decir, uno que simplemente repetía como un loro a los pacientes lo que acababan de decir. El pobre Weizenbaum, un alma gentil e inocente, se sorprendió al ver que la gente aparentemente tenía consultas serias con Eliza. Y su popularidad ha perdurado, como lo confirmará una búsqueda en la web de «elizabot».
La aparente verosimilitud de la actuación del GPT-3 ha llevado, una vez más, a una febril especulación sobre si esto significa que hemos dado un paso significativo hacia el objetivo de la inteligencia general artificial (AGI), es decir, una máquina que tiene la capacidad de comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano. Personalmente, soy escéptico. El concepto básico del enfoque de la GPT se remonta a 2017 y aunque es un logro realmente impresionante poder entrenar un sistema tan grande y capaz, parece más una mejora incremental respecto a sus predecesores que un dramático avance conceptual. En otras palabras: empezar con una buena idea, luego aplicar más y más potencia de cálculo y ver cómo mejora el rendimiento con cada iteración.
Lo que plantea otra pregunta: dado que este tipo de mejora incremental sólo es posible aplicando más y más potencia de cálculo al problema, ¿cuáles son los costos ambientales de la tecnología de aprendizaje por máquina? Por el momento, el único consenso parece ser que es una actividad muy intensiva en energía, pero el tamaño exacto de su huella ambiental parece ser un misterio. Esto puede ser en parte porque es realmente difícil de medir, pero también puede ser en parte porque la industria de la tecnología no tiene ningún incentivo para investigar demasiado a fondo, dado que ha apostado el rancho por la tecnología.
Pero aquellos de nosotros con memorias un poco más largas recordarán las bravuconadas de la multitud de Bitcoin y la cadena de bloqueo hace unos años – hasta que alguien descubrió que la minería de Bitcoin consumía la misma cantidad de electricidad que los países pequeños. GPT-3 y el aprendizaje por máquina pueden ser muy impresionantes (sin mencionar que son rentables para los gigantes de la tecnología), pero tarde o temprano, ¿no deberíamos preguntarnos si el planeta puede permitírselo?