Saltar al contenido

¿GPT-4 realmente entiende lo que estamos diciendo?

28 de marzo de 2023

Explorar

una pregunta para david krakauerpresidente del Instituto de Ciencias de la Complejidad de Santa Fe donde explora la evolución de la inteligencia y la estupidez en la Tierra.

En la imagen del cuerpo

Foto cortesía de David Krakauer

¿GPT-4 realmente entiende lo que estamos diciendo?

Yes y no”, es la respuesta a eso. En mi nuevo artículo con la científica informática Melanie Mitchell, encuestamos a los investigadores de IA sobre la idea de que los grandes modelos de lenguaje previamente entrenados, como GPT-4, pueden comprender el lenguaje. Cuando dicen que estos modelos nos entienden, o que no, no está claro que estemos de acuerdo con nuestro concepto de comprensión. Cuando Claude Shannon estaba inventando la teoría de la información, dejó muy claro que la parte de la información que le interesaba era comunicaciónsin significado: puede tener dos mensajes que sean igualmente informativos, uno con mucho significado y el otro con ninguno.

Hay una especie de entendimiento que es solo coordinación. Por ejemplo, podría decir: «¿Puedes pasarme la cuchara?» Y dirías: «Aquí está». Y yo digo: “¡Pues me entendiste!”. Porque nos coordinamos. Eso no es lo mismo que la comprensión generativa o constructiva, donde te digo: «Te voy a enseñar algo de cálculo y puedes usar ese conocimiento en un problema del que aún no te he hablado». Eso va más allá de la coordinación. Es como: Aquí están las matemáticas, ahora aplíquelas en su vida.

Entonces, la comprensión, como la información, tiene varios significados, más o menos exigentes. ¿Estos modelos de lenguaje se coordinan en un significado compartido con nosotros? Sí. ¿Entienden en este sentido constructivo? Probablemente no.

Recomendado:  India necesita una adopción generalizada de la inteligencia artificial para mejorar la productividad de los cultivos

Yo haría una gran distinción entre súper funcional e inteligente. Permítanme usar la siguiente analogía: nadie diría que un automóvil corre más rápido que un humano. Dirían que un coche puede mover más rápido en una superficie plana que un humano. Por lo tanto, puede completar una función de manera más efectiva, pero no se ejecuta más rápido que un humano. Una de las preguntas aquí es si estamos usando la «inteligencia» de manera consistente. No creo que lo estemos.

Tienen que sobrevivir convenciéndonos de que son interesantes de leer.

Para mí, la otra dimensión de esto es lo que llamo el modelo estándar de la ciencia, que es la parsimonia. Frente al modelo científico de aprendizaje automático, que es megamony. La parsimonia dice: “Voy a tratar de explicar todo lo que pueda, con la menor cantidad de recursos posible”. Eso significa pocos parámetros, o un pequeño número de leyes o condiciones iniciales. La raíz de la parsimonia, por cierto, es la acción frugal. Y estos modelos de lenguaje son exactamente lo contrario de eso. Son acción masiva. Está entrenado en un dominio enorme pero muy restringido: texto. La mayor parte de la comprensión humana asigna la experiencia textual a la experiencia somatosensorial. Entonces, si les digo, “Eso es doloroso”, no lo asignan a otra palabra. Mapeas eso en una sensación. La mayor parte de la percepción humana transmite, a través de etiquetas o palabras, experiencias que tienen un aspecto emocional o físico. Y GPT-4 solo está encontrando correlaciones entre palabras.

Otra dimensión de la diferencia, que es muy importante, es que nuestro aparato cognitivo evolucionó. El entorno que creó los atributos que describimos como inteligencia y comprensión es muy rico. Ahora mira estos algoritmos. ¿Cuál es su contexto selectivo? A nosotros. Somos selección cultural sobre algoritmos. No tienen que sobrevivir en el mundo. Tienen que sobrevivir convenciéndonos de que son interesantes de leer. Ese proceso evolutivo que ha tenido lugar en el entrenamiento del algoritmo es tan radicalmente diferente de lo que significa sobrevivir en el mundo físico, y esa es otra pista. Para alcanzar niveles remotamente plausibles de competencia humana, el conjunto de entrenamiento con el que se han presentado estos algoritmos supera lo que cualquier ser humano en un número casi infinito de vidas podría experimentar. Así que sabemos que no podemos estar haciendo lo mismo. Simplemente no es posible. Estas cosas son algoritmos de Babel. Viven en la tierra de la Biblioteca de Babel de Borges. Tienen la experiencia completa. Tienen acceso a todo el conocimiento en la biblioteca. Nosotros no.

Recomendado:  Reconocimiento de rostros mediante la Inteligencia Artificial

El otro hecho a señalar, aparte de todo lo que aducimos en el documento (errores frágiles, errores que cometen los modelos de lenguaje que son signos reveladores de que nunca cometeríamos), es que los humanos aplican un razonamiento mecánico a las cosas. Si te dijera: “Hay un tranvía rodando cuesta abajo y hay un gato en su camino. ¿Qué pasa después? No solo está tratando de estimar la siguiente palabra, como GPT-4. Estás formando en el ojo de tu mente un pequeño modelo mental y físico de esa realidad. Y vas a darte la vuelta y decirme: “Bueno, ¿es una superficie lisa? ¿Hay mucha fricción? ¿Qué tipo de ruedas tiene?” Su idioma se asienta sobre un modelo de física. Así es como razonas a través de esa narrativa. Esta cosa no. No tiene un modelo de física.

Ahora, el punto interesante es quizás en toda esa riqueza de datos, si fuéramos lo suficientemente ingeniosos, podríamos encontrar un modelo físico. Es tácito, implícito en su vasta base de datos de idiomas, pero no accede a ella. Podrías decirle: «¿Qué modelo de física está detrás de la decisión que estás tomando ahora?» Y ahora confabularía. Entonces, la narrativa que dice que hemos redescubierto el razonamiento humano está tan equivocada en muchos sentidos. Sólo demostrablemente falso. Ese no puede ser el camino a seguir.

Imagen principal: studiostoks / Shutterstock

nueva letra

Obtenga el boletín de Nautilus

¡Los artículos más nuevos y populares entregados directamente en su bandeja de entrada!

Recomendado:  Mejorar el aprendizaje en línea con la inteligencia artificial