Saltar al contenido

PaLM 2 de Google frente a GPT-4 de Open AI

24 de mayo de 2023

La narrativa de la IA ahora se inclina mucho hacia quién domina el espacio. A principios de este mes, Google presentó el nuevo motor de Bard AI, PaLM 2.

Este es el nuevo modelo de lenguaje del gigante tecnológico diseñado para mejorar las capacidades de traducción, «razonamiento» y codificación de idiomas.

PaLM 2 es la respuesta de Google a la reciente versión ChatGPT-4 de Open AI y la integración de Microsoft en Bing Chat, ya que la carrera por el dominio de la IA está ahora en su apogeo.

Es seguro decir que Google ahora está acelerando el ritmo después de experimentar una serie de problemas con Bard AI.

El servicio de chat conversacional experimental se presentó en febrero, pero casi demasiado rápido generó una serie de controversias.

Bard AI se lanzó con el modelo ligero inicial de Google de Language Model for Dialogue Applications (LaMDA).

Modelo de lenguaje Pathways

PaLM 2 ahora reemplazó a LaMDA y está impulsando 25 de los productos de Google.

En particular, con las capacidades avanzadas de inteligencia artificial de PaLM 2, se pueden crear y entrenar modelos específicos en diferentes campos, como Sec-PaLM 2 y Med-PaLM2, que están familiarizados con la ciberseguridad y la industria médica, respectivamente.

PaLM2, que pertenece a una familia de modelos de lenguaje grande (LLM), también está capacitado para hacer predicciones de la siguiente palabra, lo que genera el texto más probable después de una entrada rápida por parte de humanos.

Los LLM están capacitados en conjuntos de datos masivos de texto y código y se pueden usar para diversas tareas, como la generación de código, el aprendizaje automático y el procesamiento del lenguaje natural (NLP).

El modelo PaLM sigue al PaLM inicial que Google anunció en abril de 2022.

PaLM se refiere al «Modelo de lenguaje Pathways», donde «Pathways» es una técnica de aprendizaje automático creada en Google.

De manera similar, en marzo, Open AI lanzó oficialmente GPT-4, que Microsoft confirmó con anticipación.

Como sin duda uno de los LLM más poderosos, GPT-4 impulsa aplicaciones como ChatGPT.

La pregunta más importante que resuena con la mayoría de nosotros en este momento es, entre PaLM 2 y GPT-4, ¿cuál es superior al otro?

Recomendado:  Aprovechar el ruido en la computación óptica para la IA -- ScienceDaily

Además, ¿por qué PaLM 2? ¿Por qué GPT-4?

¿En qué se diferencia PaLM 2 de GPT-4 y es PaLM 2 el cambio de juego para Google en la carrera de IA?

Tamaño del LLM

Así como Open AI aún no ha revelado el tamaño de GPT-4, Google tampoco ha revelado exactamente qué tan grande es PaLM 2.

Se están haciendo muchas suposiciones relacionadas con los parámetros, pero siéntase libre de revisar el informe técnico PaLM 2 de 91 páginas de Google.

El tamaño de un modelo se mide por el número de parámetros; los valores numéricos que determinan cómo el modelo procesa la entrada y genera la salida.

Cuantos más parámetros tiene un modelo, más complejo y poderoso es, pero también más costoso computacionalmente y más difícil de entrenar.

En pocas palabras, es lo que aprende el modelo.

El GPT-3 de Open AI llegó en 2021 con 175 000 millones de parámetros, mientras que el PaLM de Google se entrenó en 540 000 millones de parámetros.

Sin embargo, PaLM 2 es ventajoso sobre GPT-4 ya que tiene tamaños más pequeños que son específicos para aplicaciones particulares que carecen de un poder de incorporación superior.

Los submodelos de PaLM 2 con diferentes tamaños incluyen Unicornio (el más grande), Bison, Otter y Gecko (el más pequeño).

Hablando durante el evento de desarrolladores de I/O, Google y el CEO de Alphabet, Sundar Pichai, señalaron que Gecko puede funcionar en dispositivos móviles, ya que es lo suficientemente rápido para excelentes aplicaciones interactivas en el dispositivo, incluso sin conexión.

“Esta versatilidad significa que PaLM 2 se puede ajustar para admitir clases completas de productos de más maneras, para ayudar a más personas”, dijo.

En más de 100 idiomas

Los dos LLM están capacitados en diferentes datos.

Los datos son la fuente de conocimiento y habilidades para los modelos, y afectan su desempeño y capacidad de generalización.

Cuantos más datos diversos y de alta calidad se entrenan en un modelo, más versátil y preciso es.

Si bien Google no ha revelado el tamaño del conjunto de datos de entrenamiento de PaLM 2, la compañía dijo a través de su informe que el conjunto de datos del modelo es significativamente mayor.

Recomendado:  La filantropía necesita prepararse para un mundo impulsado por la inteligencia artificial

De manera similar, Open AI no hizo ninguna afirmación sobre el tamaño del conjunto de datos de entrenamiento cuando presentó GPT-4.

PaLM 2 está capacitado en más de 100 idiomas y una variedad de dominios, como matemáticas, ciencias, programación y literatura.

También utiliza un conjunto de datos seleccionados que filtra el texto dañino o de baja calidad, como el spam, la incitación al odio o la información errónea.

Capacidades

PaLM 2 también utiliza una técnica llamada aprendizaje de vías, que le permite aprender de múltiples fuentes de información y combinarlas de manera coherente.

Esto le permite comprender, generar y mejorar sus capacidades de traducción.

GPT-4 está capacitado en una variedad más amplia de datos que PaLM 2, cubriendo casi todos los dominios e idiomas disponibles en Internet.

Además, Google ha afirmado que PaLM 2 ha mejorado las capacidades de razonamiento y lógica sobre GPT-4.

Puede resolver problemas matemáticos avanzados, explicar sus pasos y proporcionar diagramas.

Según Dataconomy, también puede escribir y depurar código en más de 20 lenguajes de programación y proporcionar documentación en varios idiomas.

También puede generar texto en lenguaje natural para diversas tareas y dominios, como traducción, resumen, respuesta a preguntas, conversación de chatbot, datos actualizados y más.

Con capacidades, se refiere a lo que los LLM pueden hacer con el texto que generan.

Dependen tanto del tamaño como de los datos de los modelos, así como de las tareas para las que están ajustados.

El ajuste fino es el proceso de adaptar un modelo general a una tarea o dominio específico entrenándolo en un conjunto de datos más pequeño relevante para esa tarea o dominio.

PaLM 2 ha mejorado las capacidades en lógica y razonamiento gracias a su amplio entrenamiento en esas áreas.

Sin embargo, GPT-4 tiene capacidades más versátiles que PaLM2 de Google, ya que puede generar texto en lenguaje natural para casi cualquier tarea.

Algunos de ellos incluyen traducción, resumen, respuesta a preguntas, finalización de texto, generación, análisis, extracción e incluso paráfrasis de texto.

Se puede acceder a LLM de Google a través de su bot, Bard AI, mientras que a Open AI se puede acceder a través de ChatGPT.

Recomendado:  Perspectivas del mercado global de inteligencia artificial (IA), 2026

Vale la pena señalar que Bard AI está disponible gratuitamente en 180 países, donde PaLM 2 no está bloqueado detrás de una API, mientras que GPT-4 está detrás de un muro de pago en ChatGPT plus.

Los usuarios gratuitos solo obtienen acceso a GPT 3.5. Esto no significa que los usuarios no puedan seguir accediendo a GPT-4 de forma gratuita.

A través de Microsoft Bing AI Chat, ahora disponible sin lista de espera, cualquier persona con una cuenta de Microsoft puede acceder libremente a la actualización GPT-4 de ChatGPT.

Sin embargo, a mediados de mayo, Microsoft finalmente eliminó el inicio de sesión obligatorio.

Altamente eficiente

Elegir con qué LLM ir depende completamente de usted. Si necesita uno que sea fuerte con la lógica y el razonamiento y tenga una sección de «búsquelo en Google», entonces PaLM 2 lo es.

Si necesita uno que haya demostrado su valía en la generación de texto y que sea rápido mientras lo hace, no busque más allá de GPT-4.

En la escena de la IA, Google ha demostrado que aún tiene que dar marcha atrás en esta batalla, ya que durante su evento para desarrolladores I/O 2023, el gigante tecnológico dijo que están trabajando en Gemini, un multimodal diseñado para ser altamente eficiente en la herramienta y la API. integraciones.

Pichai mencionó que se construirá para permitir futuras innovaciones como la memoria y la planificación.

“Gemini todavía está en formación, pero ya exhibe capacidades multimodales nunca antes vistas en modelos anteriores”, dijo Pichai.

“Una vez ajustado y rigurosamente probado en seguridad, Gemini estará disponible en varios tamaños y capacidades, al igual que PaLM 2, para garantizar que se pueda implementar en diferentes productos, aplicaciones y dispositivos para el beneficio de todos”.

La única forma de averiguar qué LLM funciona para usted es probarlos.