Saltar al contenido

¿Qué es Google LaMDA? Esto es lo que necesita saber

16 de abril de 2023

Luka Mlinar / Autoridad de Android

Si ha leído algo sobre los chatbots de IA de última generación como ChatGPT y Google Bard, probablemente se haya topado con el término modelos de lenguaje extenso (LLM). La familia GPT de LLM de OpenAI potencia ChatGPT, mientras que Google usa LaMDA para su chatbot Bard. Debajo del capó, estos son poderosos modelos de aprendizaje automático que pueden generar texto con un sonido natural. Sin embargo, como suele ocurrir con las nuevas tecnologías, no todos los grandes modelos de lenguaje son iguales.

Entonces, en este artículo, echemos un vistazo más de cerca a LaMDA, el modelo de lenguaje grande que impulsa el chatbot Bard de Google.

¿Qué es Google LaMDA?

Google IO 2022 Sundar habla de LaMDA 2

LaMDA es un modelo de lenguaje conversacional desarrollado completamente internamente en Google. Puede pensar en él como un rival directo de GPT-4, el modelo de lenguaje de vanguardia de OpenAI. El término LaMDA significa Modelo de lenguaje para aplicaciones de diálogo. Como habrás adivinado, eso indica que el modelo ha sido diseñado específicamente para imitar el diálogo humano.

Cuando Google presentó por primera vez su modelo de lenguaje grande en 2020, no se llamaba LaMDA. En ese momento, lo conocíamos como Meena, una IA conversacional entrenada en unos 40 mil millones de palabras. Una de las primeras demostraciones mostró que el modelo era capaz de contar chistes completamente solo, sin hacer referencia a una base de datos o una lista preprogramada.

Google continuaría presentando su modelo de lenguaje como LaMDA a una audiencia más amplia en su discurso de apertura anual de I/O en 2021. La compañía dijo que LaMDA había sido capacitado en conversaciones e historias humanas. Esto le permitió sonar más natural e incluso adoptar varias personalidades; por ejemplo, LaMDA podría pretender hablar en nombre de Plutón o incluso de un avión de papel.

LaMDA puede generar texto similar al humano, al igual que ChatGPT.

Además de generar un diálogo similar al humano, LaMDA se diferenciaba de los chatbots existentes en que podía priorizar las respuestas sensatas e interesantes. Por ejemplo, evita respuestas genéricas como “Vale” o “No estoy seguro”. En cambio, LaMDA prioriza las sugerencias útiles y las réplicas ingeniosas.

Recomendado:  AI News Weekly - Número 177: Google ofrece ayudar a otros con la ética difícil de la IA - 3 de septiembre de 2020

Según una publicación de blog de Google sobre LaMDA, la precisión de los hechos era una gran preocupación, ya que los chatbots existentes generaban texto contradictorio o completamente ficticio cuando se les preguntaba sobre un tema nuevo. Entonces, para evitar que su modelo de lenguaje genere información errónea, la compañía le permitió obtener datos de fuentes de información de terceros. Este llamado LaMDA de segunda generación podría buscar información en Internet como un ser humano.

¿Cómo se entrenó LaMDA?

Google LaMDA

Antes de hablar específicamente de LaMDA, vale la pena hablar sobre cómo funcionan los modelos de lenguaje moderno en general. Los modelos GPT de LaMDA y OpenAI se basan en la arquitectura de aprendizaje profundo del transformador de Google de 2017. Los transformadores esencialmente permiten que el modelo «lea» varias palabras a la vez y analice cómo se relacionan entre sí. Armado con este conocimiento, un modelo entrenado puede hacer predicciones para combinar palabras y formar oraciones completamente nuevas.

En cuanto a LaMDA en concreto, su formación se llevó a cabo en dos etapas:

  1. Pre-entrenamiento: En la primera etapa, LaMDA se entrenó en un conjunto de datos de 1,56 billones de palabras, procedente de «datos de diálogo público y texto web». Según Google, LaMDA usó un conjunto de datos 40 veces más grande que los modelos de lenguaje anteriores de la empresa.
  2. Sintonia FINA: Es tentador pensar que los modelos de lenguaje como LaMDA funcionarán mejor si simplemente los alimenta con más datos. Sin embargo, ese no es necesariamente el caso. Según los investigadores de Google, el ajuste fino fue mucho más efectivo para mejorar la seguridad y la precisión de los hechos del modelo. La seguridad mide la frecuencia con la que el modelo genera texto potencialmente dañino, incluidos insultos y opiniones polarizadas.

Para la etapa de ajuste, Google reclutó humanos para tener conversaciones con LaMDA y evaluar su desempeño. Si respondió de una manera potencialmente dañina, el trabajador humano anotaría la conversación y calificaría la respuesta. Eventualmente, este ajuste fino mejoró la calidad de respuesta de LaMDA mucho más allá de su estado inicial de entrenamiento previo.

Recomendado:  Qué pueden hacer las empresas para maximizar el impacto

ajuste fino de seguridad de google bard

Puede ver cómo el ajuste fino mejoró el modelo de lenguaje de Google en la captura de pantalla anterior. La columna del medio muestra cómo respondería el modelo básico, mientras que la derecha es indicativa del LaMDA moderno después del ajuste.

LaMDA vs GPT-3 y ChatGPT: ¿Es mejor el modelo de lenguaje de Google?

ChatGPT foto de stock 2

Édgar Cervantes / Autoridad Android

Sobre el papel, LaMDA compite con los modelos de lenguaje GPT-3 y GPT-4 de OpenAI. Sin embargo, Google no nos ha brindado una forma de acceder a LaMDA directamente; solo puede usarlo a través de Bard, que es principalmente un compañero de búsqueda y no un generador de texto de propósito general. Por otro lado, cualquiera puede acceder a GPT-3 a través de la API de OpenAI.

Del mismo modo, ChatGPT no es lo mismo que GPT-3 o los modelos más nuevos de OpenAI. De hecho, ChatGPT se basa en GPT-3.5, pero se ajustó aún más para imitar las conversaciones humanas. También llegó varios años después del debut inicial exclusivo para desarrolladores de GPT-3.

Entonces, ¿cómo se compara LaMDA con GPT-3? Aquí hay un resumen rápido de las diferencias clave:

  1. Conocimiento y precisión: LaMDA puede acceder a Internet para obtener la información más reciente, mientras que GPT-3 e incluso GPT-4 tienen fechas límite de conocimiento de septiembre de 2021. Si se les pregunta sobre eventos más actualizados, estos modelos podrían generar respuestas ficticias.
  2. Datos de entrenamiento: El conjunto de datos de entrenamiento de LaMDA constaba principalmente de diálogo, mientras que GPT-3 usaba todo, desde entradas de Wikipedia hasta libros tradicionales. Eso hace que GPT-3 sea más versátil y adaptable para aplicaciones como ChatGPT.
  3. Formación humana: En la sección anterior, hablamos sobre cómo Google contrató trabajadores humanos para ajustar su modelo de seguridad y calidad. Por el contrario, el GPT-3 de OpenAI no recibió ninguna supervisión o ajuste por parte de humanos. Esa tarea se deja a los desarrolladores o creadores de aplicaciones como ChatGPT y Bing Chat.
Recomendado:  Reflexiones sobre el plan de la Declaración de Derechos de AI | blog@CACM

¿Puedo hablar con LaMDA?

Ejemplo de Google IO 2022 LaMDA 2

En este momento, no puede hablar directamente con LaMDA. A diferencia de GPT-3 y GPT-4, Google no ofrece una API que pueda usar para interactuar con su modelo de lenguaje. Como solución alternativa, puede hablar con Bard, el chatbot de inteligencia artificial de Google construido sobre LaMDA.

Sin embargo, hay una trampa. No puede ver todo lo que LaMDA tiene para ofrecer a través de Bard. Se ha desinfectado y ajustado aún más para que sirva únicamente como un compañero de búsqueda. Por ejemplo, mientras que el propio trabajo de investigación de Google mostró que el modelo podía responder en varios idiomas, Bard solo admite inglés por el momento. Es probable que esta limitación se deba a que Google contrató a «trabajadores en red» de habla inglesa con sede en los EE. UU. para ajustar LaMDA por motivos de seguridad.

Una vez que la empresa ajuste su modelo lingüístico en otros idiomas, es probable que veamos que se elimina la restricción de solo inglés. Del mismo modo, a medida que Google tenga más confianza en la tecnología, veremos que LaMDA aparece en Gmail, Drive, Search y otras aplicaciones.


preguntas frecuentes

LaMDA apareció en los titulares cuando un ingeniero de Google afirmó que el modelo era sensible porque podía emular a un humano mejor que cualquier chatbot anterior. Sin embargo, la empresa sostiene que su modelo de lenguaje no posee sensibilidad.

Sí, muchos expertos creen que LaMDA puede pasar la prueba de Turing. La prueba se utiliza para comprobar si un sistema informático posee una inteligencia similar a la humana. Sin embargo, algunos argumentan que LaMDA solo tiene la capacidad de hacer creer a las personas que es inteligente, en lugar de poseer inteligencia real.

LaMDA es la abreviatura de Language Model for Dialogue Applications. Es un gran modelo de lenguaje desarrollado por Google.