Saltar al contenido

La carrera de la IA se calienta: Google anuncia PaLM 2, su respuesta a GPT-4

11 de mayo de 2023

Google

El miércoles, Google presentó PaLM 2, una familia de modelos de lenguaje fundamentales comparable a GPT-4 de OpenAI. En su evento Google I/O en Mountain View, California, Google reveló que ya usa PaLM 2 para potenciar 25 productos, incluido su asistente de IA conversacional Bard.

Como una familia de modelos de lenguaje grande (LLM), PaLM 2 ha sido entrenado en un enorme volumen de datos y hace predicción de la siguiente palabra, lo que genera el texto más probable después de una entrada rápida por parte de humanos. PaLM significa «Pathways Language Model» y «Pathways» es una técnica de aprendizaje automático creada en Google. PaLM 2 sigue al PaLM original, que Google anunció en abril de 2022.

Según Google, PaLM 2 admite más de 100 idiomas y puede realizar «razonamiento», generación de código y traducción multilingüe. Durante su discurso de apertura de Google I/O de 2023, el CEO de Google, Sundar Pichai, dijo que PaLM 2 viene en cuatro tamaños: Gecko, Otter, Bison, Unicorn. Gecko es el más pequeño y, según se informa, puede ejecutarse en un dispositivo móvil. Aparte de Bard, PaLM 2 está detrás de las funciones de IA en Documentos, Hojas de cálculo y Presentaciones.

Un ejemplo proporcionado por Google de PaLM 2

Agrandar / Un ejemplo proporcionado por Google del «razonamiento» de PaLM 2.

Google

Todo eso está muy bien, pero ¿cómo se compara PaLM 2 con GPT-4? En el Informe técnico de PaLM 2, PaLM 2 aparece para vencer a GPT-4 en algunas tareas matemáticas, de traducción y de razonamiento. Pero la realidad podría no coincidir con los puntos de referencia de Google. En una evaluación superficial de la versión PaLM 2 de Bard realizada por Ethan Mollick, un profesor de Wharton que suele escribir sobre IA, Mollick descubre que el rendimiento de PaLM 2 parece peor que GPT-4 y Bing en varias pruebas de lenguaje informales, que él detallado en un hilo de Twitter.

Recomendado:  ChaosGPT, la IA que quiere acabar con la Humanidad

Hasta hace poco, la familia de modelos de lenguaje PaLM ha sido un producto interno de Google Research sin exposición al consumidor, pero Google comenzó a ofrecer acceso API limitado en marzo. Aún así, el primer PaLM se destacó por su enorme tamaño: 540 mil millones de parámetros. Los parámetros son variables numéricas que sirven como el «conocimiento» aprendido del modelo, permitiéndole hacer predicciones y generar texto basado en la entrada que recibe.

Un ejemplo proporcionado por Google de idiomas de traducción de PaLM 2.

Agrandar / Un ejemplo proporcionado por Google de idiomas de traducción de PaLM 2.

Google

Más parámetros significan aproximadamente más complejidad, pero no hay garantía de que se usen de manera eficiente. En comparación, el GPT-3 de OpenAI (desde 2020) tiene 175 mil millones de parámetros. OpenAI nunca ha revelado la cantidad de parámetros en GPT-4.

Eso lleva a la gran pregunta: ¿Qué tan «grande» es PaLM 2 en términos de recuento de parámetros? Google no dicelo que ha frustrado a algunos expertos de la industria que a menudo luchan por una mayor transparencia en lo que hace que los modelos de IA funcionen.

Esa no es la única propiedad de PaLM 2 sobre la que Google no ha hablado. La compañía dice que PaLM 2 ha sido entrenado en «un conjunto diverso de fuentes: documentos web, libros, código, matemáticas y datos conversacionales», pero no entra en detalles sobre qué son exactamente esos datos.

Al igual que con otros conjuntos de datos de modelos de lenguaje grandes, el conjunto de datos de PaLM 2 probablemente incluye una amplia variedad de material con copyright usado sin permiso y material potencialmente dañino extraído de Internet. Los datos de entrenamiento influyen decisivamente en el resultado de cualquier modelo de IA, por lo que algunos expertos han estado defendiendo el uso de conjuntos de datos abiertos que pueden brindar oportunidades para la reproducibilidad científica y el escrutinio ético.

Recomendado:  ¿En qué es mejor la inteligencia artificial? Robar ideas humanas | Tecnología

Un ejemplo proporcionado por Google del código de programa de escritura de PaLM 2.

Agrandar / Un ejemplo proporcionado por Google del código de programa de escritura de PaLM 2.

Google

«Ahora que los LLM son productos (no solo investigación), estamos en un punto de inflexión: las empresas con fines de lucro serán cada vez menos transparentes *específicamente* sobre los componentes que son más importantes». tuiteó Jesse Dodge, científico investigador del Instituto Allen de IA. «¡Solo si la comunidad de código abierto puede organizarse juntos podremos seguir el ritmo!»

Hasta ahora, las críticas por ocultar su salsa secreta no han impedido que Google busque un amplio despliegue de modelos de IA, a pesar de la tendencia en todos los LLM a inventar cosas de la nada. Durante Google I/O, los representantes de la compañía demostraron las funciones de IA en muchos de sus principales productos, lo que significa que una gran parte del público podría estar luchando contra las confabulaciones de IA pronto.

Y en lo que respecta a los LLM, PaLM 2 está lejos del final de la historia: en el discurso de apertura de I/O, Pichai mencionó que un nuevo modelo de IA multimodal llamado «Gemini» estaba actualmente en entrenamiento. A medida que continúa la carrera por el dominio de la IA, los usuarios de Google en los EE. UU. y otros 180 países (extrañamente excluyendo a Canadá y Europa continental) pueden probar PaLM 2 ellos mismos como parte de Google Bard, el asistente experimental de IA.