El auge de los modelos de lenguaje extenso (LLM, por sus siglas en inglés) como GPT-4, con su capacidad para generar texto seguro y con gran fluidez, ha sido notable, como he escrito. Lamentablemente, también lo ha hecho la exageración: los investigadores de Microsoft describieron sin aliento que el modelo OpenAI GPT-4 financiado por Microsoft exhibe «chispas de inteligencia artificial general». Lo siento, Microsoft. No, no lo hace.
A menos, por supuesto, que Microsoft se refiriera a la tendencia a alucinar (generar texto incorrecto que con seguridad es incorrecto), lo cual es demasiado humano. Los GPT también son malos para jugar juegos como el ajedrez y el go, bastante dudosos para las matemáticas y pueden escribir código con errores y fallas sutiles. Únete al club, ¿verdad?
Nada de esto significa que los LLM/GPT sean exagerados. De nada. En cambio, significa que necesitamos algo de perspectiva y mucha menos exageración en la conversación sobre inteligencia artificial generativa (GenAI).
Como se detalla en un artículo de IEEE Spectrum, algunos expertos, como Ilya Sutskever de OpenAI, creen que agregar aprendizaje reforzado con retroalimentación humana puede eliminar las alucinaciones LLM. Pero otros, como Yann LeCun de Meta y Geoff Hinton (recientemente retirado de Google), argumentan que existe una falla más fundamental en los grandes modelos de lenguaje. Ambos creen que los grandes modelos lingüísticos carecen de conocimientos no lingüísticos, lo cual es fundamental para comprender la realidad subyacente que describe el lenguaje.
En una entrevista, el CEO de Diffblue, Mathew Lodge, argumenta que hay una mejor manera: “Los modelos de aprendizaje por refuerzo pequeños, rápidos y económicos superan fácilmente a los LLM masivos de cien mil millones de parámetros en todo tipo de tareas, desde jugar juegos hasta escribir código. ”
¿Estamos buscando oro de IA en los lugares equivocados?
Derechos de autor © 2023 IDG Communications, Inc.