TEl verano de AI está bien y verdaderamente sobre nosotros. (Es posible que esta broma no funcione tan bien para los lectores del hemisferio sur). Ya sea que llamemos a este período el pico del «ciclo de exageración» o simplemente el momento en que la curva se vuelve vertical, solo será obvio en retrospectiva, pero la cadencia de las grandes noticias en el campo ha pasado de semanal a casi diaria. Pongámonos al día con lo que están haciendo los principales actores de la IA: Meta, Microsoft, Apple y OpenAI.
Manzana
Siempre uno para mantener sus cartas cerca de su cofre, no espere escuchar muchos avances de I + D de Cupertino. Incluso el trabajo de IA que se ha convertido en productos de envío está oculto en lugar de gritado desde los tejados, con la compañía hablando de «aprendizaje automático» y «transformadores» en su conferencia mundial anual de desarrolladores (WWDC) el mes pasado, pero claramente evitando decir «IA».
Pero eso no significa que no esté jugando el mismo juego que todos los demás. Según Bloomberg (£):
El fabricante de iPhone ha construido su propio marco para crear grandes modelos de lenguaje, los sistemas basados en IA en el corazón de nuevas ofertas como ChatGPT y Google’s Bard, según personas con conocimiento de los esfuerzos. Con esa base, conocida como “Ajax”, Apple también ha creado un servicio de chatbot que algunos ingenieros llaman “Apple GPT”.
En los últimos meses, el impulso de la IA se ha convertido en un gran esfuerzo para Apple, con varios equipos colaborando en el proyecto, dijeron las personas, que pidieron no ser identificadas porque el asunto es privado. El trabajo incluye tratar de abordar posibles problemas de privacidad relacionados con la tecnología.
Por un lado: por supuesto que lo son. Es difícil de recordar, porque ha estado a la defensiva durante mucho tiempo, pero Apple lideró la industria con asistentes de voz cuando lanzó Siri en 2011. Pero en unos pocos años, ciertamente por el lanzamiento del altavoz inteligente Echo en 2014, se había quedado atrás y ahora ha sido relegado casi al estado de una broma. Arreglar a Siri es un trabajo duro, pero es perfecto para el trabajo de vanguardia de LLM. Así que no sorprende que la empresa esté trabajando en ello.
Por otro lado, construir un modelo base es difícil, costoso y quizás innecesario. Apple se ha basado en raíces de código abierto antes (cada uno de sus sistemas operativos, por ejemplo, se asienta en última instancia sobre el kernel de código abierto de Darwin) y ha licenciado tecnología de terceros (sobre todo, en estos días, Arm, que aún proporciona los diseños centrales para sus chips). Y hay muchas oportunidades para cualquiera de esos enfoques…
Meta y Microsoft
El modelo de base Llama de Meta se ha convertido en la base accidental, ejem, de toda una comunidad de investigación. El competidor GPT se lanzó para su descarga a un grupo selecto de investigadores, que habían firmado acuerdos de confidencialidad y prometieron no compartirlo más ampliamente… cuando se filtró de inmediato. Las copias de Samizdat se han compartido en la red, al igual que un sistema completo para colaborar sin siquiera publicar abiertamente el LLM robado. Todo iba en contra de los términos de Meta, pero la compañía no parecía muy descontenta por ser el centro de una revolución informática.
Y ahora, es oficial. Meta lanzó Llama 2 con términos de servicio que legitiman ese ecosistema. De su anuncio:
Ahora estamos listos para abrir el código fuente de la próxima versión de Llama 2 y la estamos poniendo a disposición de forma gratuita para investigación y uso comercial. También incluimos pesos de modelo y código de inicio para el modelo preentrenado y las versiones conversacionales ajustadas.
Y la empresa se ha asociado con Microsoft para ampliar el acceso:
A partir de hoy, Llama 2 está disponible en el catálogo de modelos de Azure AI, lo que permite a los desarrolladores que usan Microsoft Azure crear con él y aprovechar sus herramientas nativas de la nube para el filtrado de contenido y las funciones de seguridad. También está optimizado para ejecutarse localmente en Windows, lo que brinda a los desarrolladores un flujo de trabajo fluido a medida que brindan experiencias generativas de inteligencia artificial a los clientes en diferentes plataformas.
Sin embargo, el modelo es libre como en la cerveza, en lugar de libre como en el habla. Los términos comerciales de Meta requieren una licencia de cualquier empresa con más de 700 millones de usuarios activos mensuales; esencialmente, todas las demás empresas mencionadas en el boletín de hoy y muy pocas más. Además de eso, evita que alguien use Llama 2 para mejorar otros LLM. Puede que sea gratis, en otras palabras, pero no es de código abierto.
IA abierta
Pero sigue siendo más abierto que la competencia. Permitir que los usuarios, investigadores y competidores (más pequeños) descarguen el modelo completo y husmeen para ver cómo funciona obviamente ayuda a cualquiera que quiera construir sobre lo que ha hecho, pero también ayuda a generar confianza con socios potenciales. Para ver una señal de las trampas que vienen con el enfoque opuesto, eche un vistazo a OpenAI. De Ars Technica:
En un estudio titulado «¿Cómo está cambiando el comportamiento de ChatGPT en ¿tiempo?» publicado en arXiv, Lingjiao Chen, Matei Zaharia y James Zou, arrojan dudas sobre el rendimiento constante de los modelos de lenguaje grande (LLM) de OpenAI, específicamente GPT-3.5 y GPT-4. Mediante el acceso a la API, probaron las versiones de marzo y junio de 2023 de estos modelos en tareas como la resolución de problemas matemáticos, la respuesta a preguntas delicadas, la generación de código y el razonamiento visual. En particular, la capacidad de GPT-4 para identificar números primos se desplomó drásticamente de una precisión del 97,6 por ciento en marzo a solo el 2,4 por ciento en junio. Curiosamente, GPT-3.5 mostró un rendimiento mejorado en el mismo período.
Los resultados juegan con un temor generalizado de que los esfuerzos para mejorar la seguridad de GPT lo están haciendo más tonto. OpenAI ciertamente lanza ajustes a GPT de forma regular, y dada la regularidad con la que el director ejecutivo Sam Altman habla sobre la seguridad de la IA, es perfectamente plausible que esos ajustes se centren en gran medida en la seguridad. Entonces, si el sistema está empeorando, no mejorando, quizás se deba a esa compensación.
omitir la promoción del boletín anterior
después de la promoción del boletín
Pero el papel en sí no se sostiene. Ars Technica, de nuevo:
El investigador de inteligencia artificial Simon Willison también cuestiona las conclusiones del artículo. “No lo encuentro muy convincente”, le dijo a Ars. “Una parte decente de sus críticas tiene que ver con si la salida del código está envuelta o no en los acentos inversos de Markdown o no”… Hasta ahora, Willison cree que cualquier cambio percibido en las capacidades de GPT-4 proviene de la novedad de los LLM que desaparecen. Después de todo, GPT-4 provocó una ola de pánico en AGI poco después del lanzamiento y una vez se probó para ver si podía dominar el mundo. Ahora que la tecnología se ha vuelto más mundana, sus fallas parecen evidentes.
Pero las acusaciones golpean el corazón del modelo (irónicamente) cerrado de OpenAI. La empresa implementa cambios en GPT de manera regular, con poca explicación y sin capacidad para que los usuarios entiendan por qué o cómo difiere cada nuevo modelo. Inspeccionar cualquier LLM es un problema de «caja negra», con poca capacidad para mirar dentro y ver cómo piensa, pero esos problemas son mucho peores cuando su única forma de interactuar es a través de una API a una versión alojada por un tercero.
Ars Tehcnica, una última vez:
Willison está de acuerdo. “Honestamente, la falta de notas de lanzamiento y transparencia puede ser la historia más importante aquí”, dijo a Ars. «¿Cómo se supone que vamos a construir un software confiable sobre una plataforma que cambia de formas completamente indocumentadas y misteriosas cada pocos meses?»
X marca el lugar
Así que Twitter tiene un nuevo nombre: aquí está todo lo que sabemos hasta ahora.