Este artículo es del boletín electrónico semanal gratuito de Barron’s Tech. Regístrese aquí para recibirlo directamente en su bandeja de entrada.
Establecerse. Hola a todos. El entusiasmo por los avances en inteligencia artificial generativa ha llegado a un punto álgido, trayendo consigo una serie extrema de preocupaciones.
Los traficantes de miedo encajan en dos campos: o la IA pronto habilitará un vasto futuro distópico o desatará una amenaza existencial para la humanidad. El mes pasado, un grupo de ejecutivos de tecnología, incluidos Elon Musk y algunas luminarias de IA, agregaron combustible al fuego cuando pidieron una pausa de seis meses en el desarrollo de sistemas avanzados de IA para que la industria pudiera crear salvaguardas contra resultados dañinos.
El llamado de los ejecutivos de tecnología para detener la innovación no tiene precedentes ni es necesario.
Barron’s Tech habló recientemente con
Metaplataformas
(ticker: META), el científico jefe de IA, Yann LeCun, sobre el estado actual de la IA, el auge de ChatGPT y sus puntos de vista sobre por qué pedir una moratoria en la investigación de la IA es un error.
LeCun es uno de los científicos más destacados de la industria de la IA y ha criticado abiertamente a quienes han exagerado las capacidades de la tecnología subyacente utilizada por los chatbots de IA como ChatGPT.
Es profesor en la Universidad de Nueva York y se unió a Facebook, ahora Meta, en 2013. Junto con Geoffrey Hinton y Yoshua Bengio, LeCun recibió el premio ACM Turing de 2018, conocido como el Premio Nobel de computación, por su investigación sobre técnicas de aprendizaje profundo que han convertirse en la base de las tecnologías modernas de IA. Los tres científicos han sido llamados con frecuencia los «Padrinos de la IA» por su trabajo en el espacio.
Estos son los aspectos destacados editados de nuestra conversación con LeCun.
Barron’s: ¿Explica cómo funcionan ChatGPT y la tecnología detrás de los modelos de lenguaje extenso (LLM)?
Le Cun: Puede pensar en él como un teclado predictivo súper poderoso. Los modelos de lenguaje grande primero se entrenan en una enorme cantidad de palabras. Mostramos al modelo una ventana de palabras y le preguntamos cuál es la siguiente palabra. Va a predecir la siguiente palabra, inyectar la palabra y luego preguntarse cuál es la siguiente palabra.
¿Para qué sirven y para qué no sirven los modelos?
Son buenos para escribir ayudantes. Puede ayudarte a formular cosas en un estilo gramaticalmente correcto. ¿Pero respondiendo preguntas fácticas? No son tan buenos. El modelo regurgita lo que está almacenado en su memoria o regurgita algo aproximado que es una mezcla o interpolación de varias cosas que ha leído en los datos de entrenamiento. Eso significa que puede estar equivocado en los hechos o simplemente está inventando cosas que suenan bien.
¿Por qué los chatbots de IA tienen problemas tan grandes con la precisión a veces?
Cuando tiene un sistema como este que básicamente predice una palabra tras otra, son difíciles de controlar o dirigir porque lo que producen depende completamente de las estadísticas en las que se entrenaron y del aviso dado.
Matemáticamente, existe una buena posibilidad de que se desvíe exponencialmente del camino de las respuestas correctas. Cuanto más larga sea la respuesta que se produce, más probable es que termines produciendo basura completa.
¿Por qué está tan en contra de la carta que solicita una pausa de seis meses en el desarrollo de IA?
Estoy de acuerdo en que la IA es una tecnología poderosa y debe implementarse y desarrollarse de manera responsable y segura. Pero no creo que la respuesta correcta a esto sea detener la investigación y el desarrollo durante seis meses. Eso no va a ayudar en absoluto. También es ingenuo porque nadie lo va a hacer de todos modos.
Veamos los argumentos de las categorías de personas que han firmado esta carta. El primero es el más atroz: el verdadero agorero. Dicen que estamos en el camino de construir máquinas que eventualmente serán tan inteligentes como los humanos. Y tan pronto como esto suceda, la humanidad está condenada.
Creo que eso es absurdamente estúpido. Y ciertamente equivocado. Se basa en la idea de que el sistema de IA no será fácilmente controlable. Que será muy difícil llegar a objetivos que estén alineados con los valores humanos. Podemos diseñar objetivos, para que las entidades se comporten correctamente.
La segunda categoría son las personas que están preocupadas por el daño inmediato. Con los LLM puedes producir tonterías y desinformación. Algunas personas están preocupadas de que Internet se vea inundado por contenido generado por máquinas que es engañosamente incorrecto y que puede lavar el cerebro. No creo en este escenario porque ya existe. Las personas son resilientes y aprenden a lidiar con los nuevos medios.
La tercera categoría de personas está preocupada por los efectos sociales de los sistemas de inteligencia artificial producidos por un pequeño número de empresas tecnológicas. no estoy de acuerdo En parte porque trabajo en Meta y veo desde adentro cuáles son las motivaciones.
¿Cómo se compara la tecnología de OpenAI con la tecnología de IA de Google, Meta y otras empresas emergentes?
OpenAI parece un poco por delante del juego porque comenzaron este proceso de entrenar esos sistemas a gran escala y ajustarlos con los comentarios de los usuarios antes que otros. Pero no hay nada sorprendente o supersecreto sobre ChatGPT o GPT4 aparte del hecho de que está disponible. [to the public.]
La comprensión del lenguaje natural no es una tecnología nueva. Es lo mismo [technology]. Toda la idea del transformador. [machine learning model] vino de Google. Hay mucha gente en Meta, [
Alphabet
‘s] Google y las start-ups que han comenzado a trabajar en esta tecnología. Hay cientos de científicos e ingenieros que saben cómo construir esas cosas.
La razón por la que no has visto sistemas similares [earlier] de Google y Meta es que hay más peligro para la reputación de una gran empresa que lanzar un sistema que no es completamente confiable y puede sacar tonterías.
¿Estamos cerca de AGI, o inteligencia artificial general, cuando las máquinas pueden aprender y pensar por sí mismas?
Hay afirmaciones de que al escalar esos [LLM] sistemas alcanzaremos inteligencia a nivel humano. Mi opinión sobre esto es que es completamente falso. Hay muchas cosas que no entendemos que aún no sabemos cómo reproducir con máquinas, lo que algunas personas llaman AGI.
No vamos a poder usar una tecnología como ChatGPT o GPT4 para entrenar a un robot para limpiar una mesa o llenar el lavavajillas. A pesar de que esta es una tarea trivial para un niño. Todavía no podemos hacerlo. Todavía no tenemos el nivel cinco. [fully] conducción autónoma. Eso requiere un conjunto de habilidades completamente diferente que no puedes aprender leyendo un texto.
¿Cuándo será posible?
Vamos a hacer un progreso significativo en los próximos cinco años. Pero no creo que vayamos a alcanzar una inteligencia a nivel humano. Va a llevar mucho más tiempo. Cada vez que ha habido esta predicción, hemos subestimado la complejidad de la misma.
Gracias por tu tiempo Yann.
Esta semana en Barron’s Tech
Escriba a Tae Kim a tae.kim@barrons.com o sígalo en Twitter en @primeradoptador