Saltar al contenido

¿Qué tipo de inteligencia es la inteligencia artificial?

5 de febrero de 2023

«ChatGPT básicamente se autocompleta con esteroides».

Escuché esa broma de un científico informático de la Universidad de Rochester como mis compañeros profesores y asistí a un taller sobre la nueva realidad de la inteligencia artificial en el aula. Como todos los demás, estábamos tratando de lidiar con las asombrosas capacidades de ChatGPT y su capacidad impulsada por IA para escribir trabajos de investigación de los estudiantes, completar el código de la computadora e incluso redactar esa ruina de la existencia de cada profesor, el documento de planificación estratégica de la universidad.

El comentario de ese científico informático llevó a un punto crítico. Si realmente queremos comprender el poder, la promesa y el peligro de la inteligencia artificial, primero debemos comprender la diferencia entre la inteligencia tal como se entiende generalmente y el tipo de inteligencia que estamos construyendo ahora con la IA. Eso es importante, porque el tipo que estamos construyendo ahora es realmente el único tipo que sabemos cómo construir, y no se parece en nada a nuestra propia inteligencia.

La brecha en la entrega de IA

El término inteligencia artificial se remonta a la década de 1950, cuando se construyeron las primeras computadoras electrónicas, y surgió durante una reunión de 1956 en Dartmouth College. Fue allí donde un grupo de científicos sentó las bases para un nuevo proyecto cuyo objetivo era una computadora que pudiera pensar. Como decía la propuesta para la reunión, el campo de la inteligencia artificial creía que “cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que se puede hacer una máquina para simularlo”.

Durante gran parte de los primeros años del campo, los investigadores de IA intentaron comprender cómo sucedía el pensamiento en los humanos y luego usar esta comprensión para emularlo en las máquinas. Esto significó explorar cómo la mente humana razona o construye abstracciones a partir de su experiencia del mundo. Un enfoque importante fue reconocimiento de lenguaje naturales decir, la capacidad de una computadora para comprender palabras y sus combinaciones (sintaxis, gramática y significado), lo que les permite interactuar de forma natural con los humanos.

Recomendado:  En el cifrado homomórfico en el que (debemos) confiar

A lo largo de los años, la IA pasó por ciclos de optimismo y pesimismo, que se han denominado «veranos» e «inviernos» de la IA, a medida que períodos notables de progreso se estancaron durante una década o más. Ahora estamos claramente en un verano de IA. Una combinación de potencia informática alucinante y avances algorítmicos combinados para traernos una herramienta como ChatGPT. Pero si miramos hacia atrás, podemos ver una brecha considerable entre lo que muchos esperaban que significaría la IA y el tipo de inteligencia artificial que se ha entregado. Y eso nos lleva de vuelta al comentario de «autocompletar con esteroides».

Las versiones modernas de AI se basan en lo que se llama aprendizaje automático. Estos son algoritmos que utilizan métodos estadísticos sofisticados para construir asociaciones basadas en algún conjunto de datos de entrenamiento que les proporcionan los humanos. Si alguna vez resolvió una de esas pruebas reCAPTCHA de «encontrar el paso de peatones», ha ayudado a crear y entrenar algún programa de aprendizaje automático. El aprendizaje automático a veces implica aprendizaje profundodonde los algoritmos representan capas apiladas de redes, cada una de las cuales trabaja en un aspecto diferente de la creación de asociaciones.

El aprendizaje automático en todas sus formas representa un logro impresionante para la informática. Apenas estamos comenzando a comprender su alcance. Pero lo importante a tener en cuenta es que su base se basa en un modelo estadístico. Al alimentar los algoritmos con enormes cantidades de datos, la IA que hemos construido se basa en el ajuste de curvas en algún espacio hiperdimensional: cada dimensión comprende un parámetro que define los datos. Al explorar estos vastos espacios de datos, las máquinas pueden, por ejemplo, encontrar todas las formas en que una palabra específica podría seguir a una oración que comienza con «Fue un día oscuro y tormentoso…»

Suscríbase para recibir historias sorprendentes, sorprendentes e impactantes en su bandeja de entrada todos los jueves

De esta manera, nuestras máquinas maravillosas de IA son realmente máquinas de predicción cuya destreza proviene de las estadísticas obtenidas de los conjuntos de entrenamiento. (Si bien estoy simplificando demasiado la amplia gama de algoritmos de aprendizaje automático, la esencia aquí es correcta). Esta visión no disminuye de ninguna manera los logros de la comunidad de IA, pero subraya cuán poco este tipo de inteligencia (si debe llamarse tal) se asemeja a nuestra inteligencia.

Recomendado:  Liberar el potencial financiero de millones de personas con el aprendizaje automático

La inteligencia no es opaca

Las mentes humanas son mucho más que máquinas de predicción. Como ha señalado Judea Pearl, lo que realmente hace que los seres humanos sean tan potentes es nuestra capacidad para discernir las causas. No solo aplicamos circunstancias pasadas a nuestra circunstancia actual: podemos razonar sobre las causas que se encuentran detrás de la circunstancia pasada y generalizarlas a cualquier situación nueva. Es esta flexibilidad la que hace que nuestra inteligencia sea «general» y hace que las máquinas de predicción del aprendizaje automático se vean como si tuvieran un enfoque estrecho, frágiles y propensas a errores peligrosos. ChatGPT estará encantado de darle referencias inventadas en su trabajo de investigación o escribir noticias llenas de errores. Mientras tanto, los autos sin conductor siguen siendo un largo y mortal camino hacia la autonomía total. No hay garantía de que lo alcancen.

Uno de los aspectos más interesantes del aprendizaje automático es lo opaco que puede ser. A menudo, no está del todo claro por qué los algoritmos toman las decisiones que toman, incluso si esas decisiones resultan para resolver los problemas que se les encomendaron a las máquinas. Esto ocurre porque los métodos de aprendizaje automático se basan en exploraciones ciegas de las distinciones estadísticas entre, por ejemplo, correo electrónico útil y correo no deseado que se encuentran en una vasta base de datos de correos electrónicos. Pero el tipo de razonamiento que usamos para resolver un problema por lo general implica una lógica de asociación que se puede explicar claramente. El razonamiento humano y la experiencia humana nunca son ciegos.

Recomendado:  Desarrollar una red neuronal para el conjunto de datos de supervivencia al cáncer

Esa diferencia es la diferencia que importa. Los primeros investigadores de IA esperaban construir máquinas que emularan la mente humana. Esperaban construir máquinas que pensaran como personas. Eso no es lo que pasó. En cambio, hemos aprendido a construir máquinas que en realidad no razonan en absoluto. Se asocian, y eso es muy diferente. Esa diferencia es la razón por la cual los enfoques arraigados en el aprendizaje automático nunca producen el tipo de Inteligencia Artificial General que esperaban los fundadores del campo. También puede ser por qué el mayor peligro de la IA no será una máquina que se despierte, se vuelva consciente de sí misma y luego decida esclavizarnos. En cambio, al identificar erróneamente lo que hemos construido como inteligencia real, representamos el peligro real para nosotros mismos. Al construir estos sistemas en nuestra sociedad de manera que no podemos escapar, podemos obligarnos a nosotros mismos a adaptarnos a lo que pueden hacer, en lugar de descubrir de lo que somos capaces.

El aprendizaje automático está llegando a la mayoría de edad, y es algo notable e incluso hermoso. Pero no debemos confundirlo con la inteligencia, para que no dejemos de entender la nuestra.