La inteligencia artificial se está volviendo inteligente rápidamente. Los avances recientes de la tecnología, que se manifiestan en las impresionantes capacidades de aplicaciones como ChatGPT, han despertado el temor de que la IA pronto se apodere de la humanidad, y no en el buen sentido. El año pasado, un ingeniero de Google afirmó que el chatbot de inteligencia artificial LaMDA de la compañía era tan inteligente que se había vuelto «consciente». Este año, alarmados por el peligro potencial de la IA, un grupo de más de 1000 empresarios tecnológicos y académicos, incluido Elon Musk, pidieron en marzo una pausa de seis meses para entrenar sistemas de IA más avanzados que el GPT-4 de OpenAI, el lenguaje más nuevo. modelo que impulsa ChatGPT.
Si bien las aplicaciones de modelo de lenguaje grande (LLM), como ChatGPT y Bard de Google, han demostrado el potencial de superar a los humanos en muchas tareas y reemplazar trabajos, de ninguna manera son iguales al cerebro humano porque los mecanismos de aprendizaje subyacentes son diferentes, David Ferrucci, científico informático y pionero de la aplicación comercial de IA, le dijo a Observer.
Ferrucci es mejor conocido como el creador de IBM Watson. Desarrollado a fines de la década de 2000 para responder preguntas en el programa de televisión. ¡Peligro!el sistema informático finalmente venció a los concursantes humanos en el juego en 2011.
«Cuando el ¡Peligro! El desafío se propuso a principios de 2007, yo era el único en IBM Research, incluso en la comunidad académica, que pensó que se podía hacer y básicamente se inscribió para perseguirlo”, dijo Ferrucci a Observer en una entrevista.
En esencia, IBM Watson es un sistema basado en aprendizaje automático que aprendió a responder ¡Peligro! preguntas digiriendo grandes cantidades de datos de programas anteriores. Surgió en un momento en que el aprendizaje profundo, un subconjunto de la inteligencia artificial, estaba comenzando a afianzarse. Antes de eso, los sistemas informáticos dependían en gran medida de la programación y supervisión humana.
En 2012, poco después del éxito de taquilla de Watson, Ferrucci dejó IBM después de 18 años para dirigir la investigación de IA para Bridgewater Associates, el fondo de cobertura más grande del mundo. Durante la mayor parte de la última década, el trabajo de Ferrucci se ha centrado en el desarrollo de IA híbrida, que busca combinar el aprendizaje automático basado en datos con el razonamiento lógico; en otras palabras, entrenar algoritmos para que “piensen” más como humanos.
En 2015, Bridgewater financió un proyecto interno liderado por Ferrucci que finalmente se convirtió en una empresa independiente llamada Elemental Cognition. Las aplicaciones híbridas de inteligencia artificial de Elemental Cognition se pueden utilizar en la gestión de inversiones, la planificación logística y el descubrimiento de fármacos, según su sitio web. En febrero, la startup firmó con Bridgewater como cliente.
En una entrevista con Observer a principios de este mes, Ferruci habló sobre los diferentes procesos de aprendizaje de ChatGPT y el cerebro humano, la necesidad de una IA híbrida y por qué cree que la propuesta de una pausa de IA de seis meses es más simbólica que práctica.
La siguiente transcripción ha sido editada para mayor claridad.
¿Qué es exactamente la IA híbrida?
La IA híbrida combina un proceso inductivo basado en datos con un proceso basado en lógica. El aprendizaje automático es un proceso basado en datos. Solo mejorará con más y más datos de entrenamiento disponibles. Pero para comunicarte con los humanos, también necesitas lógica y razonamiento.
La cognición humana funciona de la misma manera, como se explica en el libro de Daniel Kahneman. Pensando, Rápido y Lento. El cerebro humano funciona pensando rápido y lento al mismo tiempo. Para lograr una toma de decisiones precisa y confiable, necesita lo mejor de ambos mundos.
¿En qué se diferencia el pensamiento rápido del pensamiento lento? ¿Por qué necesitamos ambos?
El pensamiento rápido es cuando extrapolamos a partir de nuestra experiencia o datos y luego generalizamos. Sin embargo, la generalización puede ser incorrecta porque se basa en características superficiales que pueden correlacionarse en los datos, pero que en realidad no son causales: esta es la base del pensamiento perjudicial.
El pensamiento lento es formular un modelo de cómo creo que funcionan las cosas: ¿Cuáles son mis valores? ¿Cuáles son mis suposiciones? ¿Cuáles son mis reglas de inferencia? ¿Y cuál es mi lógica para sacar una conclusión?
Cuando hablamos de IA hoy en día, tendemos a pensar automáticamente en el aprendizaje automático, que, como dijiste, es un proceso basado en datos. ¿Hay algún ejemplo del mundo real de IA puramente impulsada por la lógica?
Sí, la IA impulsada por la lógica se ha asimilado a muchas aplicaciones del mundo real. Las representaciones formales de la lógica de resolución de problemas, como los sistemas basados en reglas o los sistemas de optimización y resolución de restricciones, se utilizan para aplicaciones de gestión, programación, planificación, control y ejecución de recursos.
Pero ya no los consideramos IA, en gran parte porque, con la revolución de los grandes datos y el aprendizaje automático, la IA se asoció fuertemente con los sistemas de aprendizaje automático.
¿Dónde se encuentran los LLM como GPT y LaMDA en el espectro de pensamiento rápido/lento? ¿Están realmente cerca de la inteligencia humana, como afirmó un ingeniero de Google el año pasado?
Los LLM producen grandes estructuras de datos que capturan las probabilidades estadísticas de ciertas secuencias de palabras que siguen a otras secuencias de palabras. Lo que hace ChatGPT son predicciones estadísticas basadas en las características superficiales del lenguaje. Con suficientes datos de entrenamiento y técnicas de aprendizaje automático realmente poderosas, estos modelos pueden imitar un lenguaje fluido.
Eso no es razonamiento lógico. Es difícil argumentar que una gran tabla de probabilidades es sensible. Yo diría que no. Sin embargo, una cosa interesante sobre la cognición humana es que combinamos un texto que suena coherente con hechos. Estamos como, eso suena muy bien, debe ser verdad. Pero la verdad requiere una comprensión y un análisis más profundos más allá de las características superficiales del lenguaje.
¿Estás nervioso de que la IA eventualmente sea más astuta que los humanos?
La IA puede realizar ciertas tareas mejor que los humanos. Ha sido cierto durante años. Hoy en día, a medida que mejoran los datos y las técnicas de capacitación, es cada vez más fácil capacitar a los sistemas de IA para que realicen más tareas humanas. Creo que eso es muy significativo. Pero no creo que la IA se haga cargo. No hay una entidad independiente que quiera conquistarte. Sin embargo, se puede abusar fácilmente de la IA. Creo que eso es una preocupación real.
Elemental Cognition firmó recientemente con Bridgewater como cliente, quien también es uno de los primeros inversores en su empresa. ¿Cómo puede la IA híbrida ayudar a los administradores de inversiones a comprender mejor la economía y los mercados?
Comprender la economía se presenta de dos formas: identificar patrones en los datos e interpretar esos patrones para comprender lo que está sucediendo.
En la gestión de inversiones, el objetivo final es hacer predicciones precisas al observar indicadores económicos, como las tasas de interés y los precios de las acciones. Los datos tienen mucho que decirte. Si pudieras ver patrones en los datos, eso es realmente poderoso. Y si puedes interpretar los patrones y dar sentido a lo que está pasando en la economía, entonces tienes otra perspectiva. Es casi como si pudiera hacer controles y equilibrios: aquí están las correlaciones que se muestran en los datos, y aquí está mi comprensión de cómo funcionan las cosas. ¿Están de acuerdo o no?
¿Qué opinas de la propuesta de pausar el entrenamiento de IA durante seis meses?
No creo que sea práctico para empezar, porque los modelos de lenguaje grandes no son un secreto. Siempre habrá empresas trabajando en ellos. Vamos a seguir viendo muchos experimentos. No creo que tenga sentido detener esa experimentación.
Pero creo que tiene sentido dar un paso atrás y pensar mucho sobre esto. Los formuladores de políticas deben comenzar a pensar en cómo regular la IA porque se puede abusar de ella de varias maneras. Es probable que veamos que se está desarrollando y aplicando una regulación.