De repente, los technorati de Silicon Valley son rumores sobre babyAGI. Es un apodo que logra sonar lindo y aterrador al mismo tiempo, un poco como los mogwais en la película clásica de comedia y terror de culto Gremlins. Pero, ¿qué es exactamente babyAGI?
En primer lugar, no es tan aterrador como parece. A pesar del nombre, babyAGI definitivamente no es AGI, un acrónimo que significa inteligencia artificial general y se refiere al tipo de IA todopoderosa que es un elemento básico de la ciencia ficción.
AGI es el objetivo expreso de algunas empresas de IA, incluidas OpenAI y DeepMind de Alphabet. Es lo que el cofundador y director ejecutivo de OpenAI, Sam Altman, dice que la gente tiene motivos para temer, que Elon Musk ha dicho que lo mantiene despierto por la noche y que lleva a algunas personas a pedir una pausa de seis meses en el desarrollo de más potente software de IA. Pero AGI aún no existe, y hay muchas personas en informática que piensan que AGI es imposible.
Entonces, OK, babyAGI no es Skynet en pañales. Pero sigue siendo una nueva adición impresionante e importante al mundo de la IA. BabyAGI es básicamente un software que convierte GPT-4 (el último modelo de lenguaje grande de OpenAI, que normalmente solo genera palabras) en un útil asistente digital que puede completar tareas y realizar acciones en Internet. En lugar de solo recibir respuestas de texto a las indicaciones de GPT-4, con BabyAGI puede hacer cosas como planificar y ejecutar automáticamente una campaña para aumentar su seguimiento en Twitter o crear y administrar un negocio de marketing de contenido..
BabyAGI es en realidad solo una versión popular de «AutoGPT», una categoría de software de código abierto que puede hacer este tipo de cosas. Tanto AutoGPT como BabyAGI tienen solo unas pocas semanas, lo que destaca cuán increíblemente rápido está naciendo la innovación, y los nuevos riesgos no insignificantes, en la era de los LLM.
“Todavía estamos en los primeros días de los agentes autónomos, pero definitivamente hay una oportunidad emocionante aquí”, dijo Nathan Benaich, fundador de la firma de capital de riesgo con sede en Londres Air Street Capital y un destacado inversionista en etapa inicial en empresas de IA.
¿De dónde vino?
El primer AutoGPT, llamado simplemente «Auto-GPT», fue creado por Toran Bruce Richards. Richards es el fundador y desarrollador principal con sede en Edimburgo, Escocia, de Significant Gravitas, una empresa que busca tomar técnicas de software de la industria de los videojuegos y aplicarlas a casos de uso que no sean juegos, según la página de LinkedIn de Richards.
Richards creó Auto-GPT y lo subió a su página de Github el 30 de marzo. Desde entonces, muchos otros desarrolladores han creado sus propias versiones. Los AutoGPT utilizan varias interfaces de programación de aplicaciones (API) para vincular GPT-4 con LangChain, una herramienta de software de código abierto que facilita la vinculación de una serie de avisos (las entradas en las que un LLM basa sus respuestas), y Pinecone, una base de datos vectorial que se puede usar como una especie de memoria para GPT-4, lo que le permite hacer referencia a documentos externos o a sus propias respuestas anteriores a las indicaciones.
A miles de kilómetros de distancia, en Seattle, Yohei Nakajima, socio de la firma de capital de riesgo en etapa inicial Untapped Capital, estaba jugando con las últimas herramientas de inteligencia artificial generativa y creó lo que pronto se llamaría BabyAGI.
Nakajima había notado que las personas intentaban usar ChatGPT de OpenAI como «cofundador» de una startup: generar ideas de negocios, escribir un plan de negocios, redactar materiales de marketing, un fenómeno que se ha denominado «HustleGPT». Pensó que podría ser posible automatizar todo el proceso y crear una empresa totalmente autónoma dirigida por GPT-4, dijo. Fortuna en un correo electrónico. Nakajima creó un prototipo y tuiteó al respecto. Un amigo que vio su publicación apodó la idea «babyAGI», y el nombre se quedó. Nakajima dijo que fue solo entonces cuando se dio cuenta de que el sistema que había creado funcionaría mejor como un agente autónomo orientado a tareas en lugar de un fundador autónomo de startups.
Nakajima dijo que es principalmente un inversionista, no un desarrollador de software, y es nuevo en Github. Así que se sorprendió de que otros desarrolladores comenzaran a extraer y ejecutar su código.
BabyAGI demostró ser especialmente popular en parte porque su código es más simple que el Auto-GPT de Richards y porque, bueno, el nombre era algo caprichoso. La versión original de Nakajima en realidad no ejecutó sus respuestas, pero varios desarrolladores, incluido un equipo de LangChain, ahora han creado sus propias versiones que realmente actúan en Internet.
Desde que lo publicó, la gente tuiteó videos de ellos mismos usando babyAGI para ejecutar una operación autónoma de prospección de ventas para una empresa. Otros han usado Auto-GPT para investigar nuevos productos y prepararse para podcasts. Y varias personas han usado versiones para desarrollar, probar y depurar software de forma autónoma.
Hasta ahora, todos estos AutoGPT, incluido babyAGI, están disponibles para usar y ejecutar libremente (aunque cada vez que el software realiza una llamada a la API de OpenAI, se le cobra al usuario). Su naturaleza de código abierto podría representar una amenaza para varias empresas emergentes de alto perfil y bien financiadas que intentan crear asistentes comerciales de IA. Estos incluyen Adept AI, que contó con varios ex alumnos de OpenAI y Google entre sus fundadores y ha recaudado $ 415 millones en fondos de capital de riesgo hasta la fecha, e Inflection AI, que fue cofundado por el cofundador de DeepMind, Mustafa Suleyman, y el cofundador de LinkedIN. Reid Hoffmann. Ha recibido $ 225 millones en fondos de capital de riesgo y, según se informa, está en proceso de tratar de recaudar hasta $ 675 millones más.
Incluso un bebé puede ser peligroso.
Si bien los AutoGPT no son AGI, conllevan algunos riesgos. Por un lado, debido a que se ejecutan en bucles continuos, ejecutando múltiples cadenas de avisos a GPT-4, pueden generar rápidamente facturas sustanciales con OpenAI.
“Al igual que con cualquier producto o servicio, es importante comprender los costos de los servicios que está utilizando. Comunicamos este riesgo claramente e instamos a otros a hacer lo mismo”, dijo Nakajima.
Hay otros peligros también. Los AutoGPT pueden escribir y ejecutar código informático, por lo que podrían usarse para ejecutar ataques cibernéticos o esquemas de fraude. También podrían usarse para impulsar fábricas de desinformación, generando contenido falso y engañoso, y dirigiendo automáticamente su difusión a través de las redes sociales.
También hay peligros más mundanos. Si un usuario no tiene cuidado con lo que le pide a los bots autónomos que haga, es posible que termine haciendo algo en su nombre, como comprar artículos o programar citas, que el usuario no pretendía.
«Los LLM son bastante limitados, pero esta nueva clase de sistemas, llamémoslos agentes basados en GPT, son potencialmente mucho más poderosos», Oren Etzioni, científico informático emérito de la Universidad de Washington, quien también fue el director ejecutivo fundador del Instituto Allen de Inteligencia Artificial en Seattle, dijo. “Además, es fácil imaginar escenarios en los que serían difíciles de controlar”.
Por ahora, dijo que la posibilidad de que los AutoGPT generen accidentalmente grandes cargos de OpenAI es el riesgo más inmediato. Pero dijo que debido a que los AutoGPT eran un paso hacia sistemas que podrían actuar de forma autónoma en Internet, «su desarrollo merece una evaluación cuidadosa».
Benaich dijo que la mayoría de los AutoGPT actualmente disponibles se basan en llamadas API costosas a OpenAI, pero que en el futuro podría ser posible basar este tipo de agentes en LLM gratuitos y de código abierto que son tan capaces como lo es GPT-4 hoy. Pero dijo que no todos los LLM pueden ser iguales. “Dos cosas van a tener una gran importancia a partir de aquí: la primera es saber para qué son realmente más adecuados los agentes de LLM, y la segunda es ver qué tan robustos son en realidad, especialmente cuando cumplirán con la larga cola de tareas que se hacen ampliamente. disponible”, dijo.