Por qué es probable que las computadoras nunca realicen inferencias abductivas

He estado revisando el filósofo y programador Erik Larson El mito de la inteligencia artificial. Vea mis publicaciones anteriores, aquí, aquí, aquí, aquí y aquí.

Larson hizo un podcast interesante con Brookings Institution a través de su Blog Lawfare poco después del lanzamiento de su libro. Vale la pena escucharlo, y Larson aclara en esa entrevista muchos de los puntos clave de su libro. El único lugar de la entrevista en el que desearía que hubiera elaborado más fue sobre la cuestión de la inferencia abductiva (también conocida como inferencia retroductiva o inferencia a la mejor explicación). Para mí, la clave para comprender por qué las computadoras no pueden, y probablemente nunca podrán, realizar inferencias abductivas es el problema de subdeterminación de la explicación por datos. Esto puede parecer un bocado, pero la idea es sencilla. Para el contexto, si vas a conseguir una computadora para lograr algo parecido a la comprensión en alguna área temática, se necesita mucho conocimiento. Ese conocimiento, en todos los casos que conocemos, debe programarse minuciosamente. Esto es cierto incluso en situaciones de aprendizaje automático en las que el marco de conocimiento subyacente debe programarse explícitamente (por ejemplo, incluso los programas Go que logran un estado de juego de clase mundial necesitan muchas reglas y heurísticas programadas explícitamente).

El problema de la subdeterminación

Los humanos, por otro lado, no necesitan nada de esto. No obstante, sobre la base de datos muy limitados o incompletos, llegamos a la conclusión correcta sobre muchas cosas (sí, somos falibles, pero el milagro es que acertamos tan a menudo). Todo el reclamo de Noam Chomsky a la fama en lingüística realmente equivale a explorar este problema de subdeterminación, al que se refirió como “la pobreza del estímulo”. Los seres humanos aprenden el lenguaje a pesar de las experiencias muy variadas con otros hablantes del lenguaje humano. Los bebés que nacen en entornos de abuso y privación sensorial aprenden el lenguaje. Los bebés sujetos a Mozart desde el útero y con entornos sensoriales ricos aprenden el lenguaje. El lenguaje es el resultado de crecer con padres cultos y elocuentes. El lenguaje es el resultado de crecer con padres groseros e inarticulados. Sin embargo, en todos los casos, la cantidad real de exposición al lenguaje es mínima en comparación con la capacidad lingüística que surge y el conocimiento del mundo resultante. Sobre la base de la exposición al lenguaje, podrían haberse desarrollado muchas formas diferentes de entender el mundo y, sin embargo, parece que hacemos las cosas bien (la mayor parte del tiempo). El filósofo de Harvard Willard Quine, en su clásico Palabra y objeto (1960), luchó con este fenómeno, defendiendo lo que él llamó la indeterminación de la traducción para darle sentido.

Diversos detectives que trabajan en agencias privadas y realizan una investigación.

El problema de la subdeterminación de la explicación por los datos aparece no solo en la adquisición del lenguaje sino también en la inferencia abductiva. Es un hecho profundo de la lógica matemática (es decir, el teorema de Löwenheim-Skolem) que cualquier colección consistente de enunciados (piense en datos) tiene infinitos modelos matemáticos (piense en explicaciones). Este hecho se refleja en las inferencias abductivas cotidianas. Nos enfrentamos a ciertos datos, como documentos faltantes de una caja de seguridad bancaria. Hay muchas, muchas formas de explicar esto: un accidente termodinámico en el que los documentos se quemaron y desaparecieron espontáneamente, un funcionario bancario corrupto que robó los documentos, un pariente infame que tuvo acceso y robó los documentos, etc.


Recomendado: ¿Qué es el Big data?.


Sin fin para “Et Cetera”

Pero el “etcétera” aquí no tiene fin. Quizás fueron extraterrestres. Quizás usted mismo tomó y escondió los documentos y ahora está sufriendo amnesia. Hay un número prácticamente infinito de explicaciones posibles. Y, sin embargo, de alguna manera, a menudo podemos determinar la mejor explicación, quizás con la adición de más datos / evidencia. Pero incluso agregar más datos / evidencia no elimina el problema porque, independientemente de la cantidad de datos / evidencia que agregue, el problema de la subdeterminación permanece. Puede eliminar algunas hipótesis (quizás la hipótesis de que lo hizo el funcionario del banco, pero no otras). Pero al agregar más datos / evidencia, también invitará a nuevas hipótesis. ¿Y cómo sabe qué hipótesis están incluso en el estadio correcto, es decir, que son relevantes? ¿Por qué la hipótesis de que el funcionario del banco tomó los documentos es más relevante que la hipótesis de que los tomó el vendedor de helados local? ¿Qué pasa con el cuidador del zoológico local? No tenemos ni idea de cómo programar la relevancia y con mayor razón no tenemos ni idea de cómo programar la inferencia abductiva (que depende de evaluar la relevancia). Larson destaca este punto de manera brillante en su libro.


Es posible que también desee leer:

¿Somos máquinas espirituales? ¿Somos máquinas en absoluto? El inventor Ray Kurzweil propuso en 1999 que dentro de los próximos treinta años nos subiremos a las computadoras como personas virtuales, programas en máquinas. Los temas y conceptos erróneos sobre las computadoras y la inteligencia artificial que aparecieron en los titulares a fines de la década de 1990 persisten hasta el día de hoy.

Una mirada crítica al mito del “aprendizaje profundo” El “aprendizaje profundo” es una técnica computacional tan mal llamada como existe. La frase “aprendizaje profundo” sugiere que la máquina está haciendo algo profundo y más allá de la capacidad de los humanos. Eso está lejos del caso.

La inteligencia artificial comprende al no comprender El secreto para escribir un programa para un chatbot comprensivo es sorprendentemente simple … Necesitábamos codificar patrones gramaticales para poder reflejar lo que el humano escribió, ya sea como una pregunta o una declaración.

Conducción automatizada y otras fallas de la IA ¿Cómo se manejarían los autos autónomos en un entorno donde el contacto visual con otros conductores es importante? En entornos cuidados y esterilizados en los EE. UU., No tenemos ni idea de lo que la IA debe lograr para igualar realmente lo que los humanos pueden hacer.

y

Inteligencia artificial: deshacerse de la narrativa de la inevitabilidad. William Dembski: Los programas de ajedrez, Go y Jeopardy de clase mundial son impresionantes, pero no prueban nada sobre si se pueden fabricar computadoras para lograr AGI. En El mito de la inteligencia artificial, Erik Larson muestra que ni la ciencia ni la filosofía respaldan la idea de que una superinteligencia de IA se haga cargo.