A menos que haya estado viviendo en una cueva, probablemente conozca ChatGPT y su tipo de IA generativa. Las IA han conquistado el mundo, provocando que las grandes empresas tecnológicas se vuelvan locas por crear su propia IA. Por supuesto, la empresa matriz de Facebook e Instagram, Meta, también se unió a la carrera. Pero en un giro reciente de los acontecimientos, el modelo de lenguaje se filtró en línea. De todos los lugares, logró llegar a 4chan, el pozo negro que rezuma de Internet.
IA y sociedad
Parecía que hace solo uno o dos años, la posibilidad de que la IA generara contenido aparentemente humano estaba a décadas de distancia. Ahora, ya está aquí. OpenAI lanzó recientemente GPT-4 (abreviatura de Generative Pre-trained Transformer 4), la última versión de esta serie. Es un sucesor de GPT-3 y ChatGPT y, en muchos casos, genera texto de apariencia humana.
Desde que OpenAI lanzó estas IA, otras grandes empresas tecnológicas han lanzado sus propias alternativas. Aunque parecen estar un poco rezagados con respecto a OpenAI, siguen siendo IA realmente impresionantes.
Por ejemplo, el modelo de lenguaje grande de Facebook (llamado LLaMa) solo está disponible para miembros aprobados. O al menos, lo era hasta hace unos días. El modelo de lenguaje se filtró y posteriormente se compartió en 4chan.
Varios informáticos confirmaron la fuga, según el borde. Es la primera vez que se filtra al público el modelo generativo patentado de una empresa importante.
Según Vice, Meta no negó que la filtración ocurrió y, en cambio, dijo:
“El objetivo de Meta es compartir modelos de inteligencia artificial de última generación con miembros de la comunidad de investigación para ayudarnos a evaluar y mejorar esos modelos. LLaMA se compartió con fines de investigación, en consonancia con la forma en que hemos compartido modelos de lenguaje grande anteriores. Si bien el modelo no es accesible para todos y algunos han tratado de eludir el proceso de aprobación, creemos que la estrategia de lanzamiento actual nos permite equilibrar la responsabilidad y la apertura”, escribió un portavoz de Meta en un correo electrónico.
Es un poco irónico que, incluso cuando Meta se jactó de que usar un enfoque de lanzamiento limitado era una forma de «democratizar el acceso» a modelos de lenguajes grandes, este tipo de fuga todavía ocurría. Esto es aún más irónico ya que este enfoque se empleó para evitar los tipos de resultados tóxicos que hemos visto en las IA en el pasado.
El hecho de que haya llegado a 4chan, que tiene una larga letanía de controversias de todo tipo, que van desde el racismo y los vínculos con la extrema derecha hasta el hacktivismo, es aún más revelador. Las grandes empresas de tecnología pueden tratar de mantener sus modelos bloqueados, pero parece probable que, tarde o temprano, los modelos llegarán al público, o a algunas partes del público.
¿Podemos abrir las IA de código abierto?
Algunos han culpado a Meta por su enfoque y han dicho que todos debemos esperar que nos lleguen consecuencias como spam o phishing.
Bueno, el modelo de lenguaje de 65 mil millones de parámetros de Meta acaba de filtrarse a la Internet pública, eso fue rápido.
Prepárese para montones de spam personalizado e intentos de phishing. El código abierto de estos modelos fue una idea terrible
—Jeffrey Ladish (@JeffLadish) 4 de marzo de 2023
Otros expertos parecen tener una idea diferente. Por ejemplo, los investigadores Sayash Kapoor y Arvind Narayanan escribieron en una publicación de blog que, a pesar de las advertencias de una nueva ola de spam y ataques maliciosos impulsados por IA, en realidad no hemos visto mucho de esto.
Por ahora, el mundo de la IA está repleto de posibilidades y riesgos, pero todo esto recién comienza a tomar forma. Si este incidente nos enseña algo, es que es difícil mantener los algoritmos alejados del público.
Para el usuario promedio, ser capaz de descargar motores como LLaMa realmente no hace mucho. Este no es un motor plug-and-play, sino un sistema de inteligencia artificial complejo que requiere mucha experiencia para configurarlo. De hecho, LLaMa ni siquiera es un único sistema, sino cuatro sistemas.
Pero esto significa que alguien con experiencia podrá ponerlo en marcha y eludir al menos algunas de las salvaguardas impuestas por las empresas. Por ejemplo, el ya famoso ChatGPT tiene varias medidas de seguridad que evitan que genere fanatismo u otros tipos de contenido polémico o peligroso, pero si ejecuta el motor usted mismo, puede escapar de algunas de esas restricciones.
Esta filtración probablemente pondrá a prueba esa hipótesis, y pronto veremos qué pueden hacer las personas cuando ejecutan la IA ellos mismos.
«Creo que es muy probable que el lanzamiento de este modelo sea un gran hito», dice Shawn Presser, un investigador independiente de inteligencia artificial que ayudó a distribuir el modelo filtrado. el borde.
En cualquier caso, la IA está entrando en el mundo real. No en el futuro, sino ahora mismo.