Saltar al contenido

La IA no debería decidir qué es verdad

18 de mayo de 2023

C¿Se entrena una inteligencia artificial para buscar, y hablar, solo la verdad? La idea parece tentadora, incluso seductora.

Y a principios de esta primavera, el magnate empresarial multimillonario Elon Musk anunció que tiene la intención de crear «TruthGPT», un chatbot de IA diseñado para rivalizar con GPT-4 no solo económicamente, sino también en el dominio de destilar y presentar solo «verdad». Unos días después, Musk compró alrededor de 10,000 GPU, probablemente para comenzar a construir, lo que llamó, una «IA máxima que busca la verdad» a través de su nueva compañía X.AI.

Esta ambición presenta otra faceta desconcertante de intentar predecir y dirigir el futuro de la IA: ¿pueden, o deben, los chatbots tener el monopolio de la verdad?

Los chatbots de IA presentan la antítesis de la transparencia.

Hay innumerables preocupaciones acerca de que esta tecnología en rápida evolución va horrible, terriblemente mal. Los chatbots como GPT-4 ahora están probando en el percentil 90 o más en una variedad de pruebas estandarizadas y, según un equipo de Microsoft (que ejecuta una versión de ChatGPT en su sitio de búsqueda, Bing), están comenzando a acercarse al nivel humano. inteligencia. Con acceso a Internet, ya pueden lograr objetivos complejos, reclutando humanos para ayudarlos en el camino. Incluso Sam Altman, el CEO de OpenAI, la compañía detrás de ChatGPT, testificó ante el Congreso esta semana que la IA podría «causar un daño significativo al mundo». Señaló: “Si esta tecnología sale mal, puede salir bastante mal”, manipulando personas o incluso controlando drones armados. (De hecho, el propio Musk fue signatario de la carta abierta de marzo que pedía una pausa en cualquier desarrollo adicional de IA).

A pesar de estas amenazas específicas inminentes, creemos que es imperativo examinar también el papel de la IA en el ámbito de la «verdad».

CON “V” MAYÚSCULA: Confiar a AI y sus chatbots para que nos proporcionen la «verdad» es buscar problemas, argumentan los expertos en inteligencia artificial Mark Bailey y Susan Schneider. Foto de Rokas Tenys/Shutterstock.

Considere la situación epistémica de hacer una pregunta a un chatbot como ChatGPT-4 o Bard de Google, en lugar de escribir una consulta de motor de búsqueda estándar. En lugar de que se le presente una lista de sitios web desde los cuales puede evaluar la información usted mismo, su respuesta se presenta en forma de unos pocos párrafos, lo que le deja aún menos oportunidades de generar su propia conclusión y ninguna explicación sobre la fuente de la información. El algoritmo también puede generar preguntas posteriores, estructurando sus ideas sobre qué considerar más (y qué no). La trayectoria natural de los omnipresentes chatbots de IA podría socavar fácilmente la toma de decisiones individuales y, potencialmente, canalizar las consultas del mundo hacia un reino mediocre de pensamiento grupal.

Recomendado:  Lo que aún no sabemos sobre cómo se entrena la IA

Pero ese resultado presupone un modelo de IA totalmente neutral y sus fuentes de datos.

Sin embargo, sin más intervención, en realidad parece el mejor de los casos.

Después de escuchar a Musk presentar su visión de TruthGPT, su entrevistador, Tucker Carlson, intervino para proponer a TruthGPT como el motor de búsqueda del partido republicano, a lo que Musk siguió afirmando que el chatbot de Open AI era demasiado «políticamente correcto». Más allá de los ataques de drones dirigidos erróneamente que preocupaban a Altman en el Congreso, lo que Musk propone es un despliegue más insidioso de IA: crear un sistema de IA que sea percibido ser la voz de la razón: un chatbot de IA que es el árbitro de la «verdad».

ISi estuviera realmente interesado en la difusión de la verdad, en lugar de lanzar un “truthbot”, Musk debería haber preguntado: ¿Qué significa para nosotros saber que algo es verdad y cómo pueden los chatbots acercarse a la verdad? Platón afirmó que el conocimiento de algo requiere tener una «creencia verdadera justificada». Y mientras los filósofos continúan debatiendo la naturaleza del conocimiento, para proporcionar una justificación sólida para una creencia, debe haber un proceso transparente para llegar allí en primer lugar.

Desafortunadamente, los chatbots de IA presentan la antítesis de la transparencia.

Por su naturaleza, se entrenan en miles de millones de líneas de texto y hacen predicciones limitadas por estos datos de entrenamiento. Entonces, si los datos están sesgados, las predicciones hechas por el algoritmo también estarán sesgadas, como dice el adagio en informática, «basura entra, basura sale». El sesgo en los datos de entrenamiento puede ocurrir por muchas razones. Podría ser introducido inconscientemente por el programador. Por ejemplo, si el programador cree que los datos de entrenamiento son representativos de la verdad, pero en realidad no lo son, la salida presentará los mismos sesgos.

Peor aún, un régimen autoritario, un actor nefasto o una empresa irresponsable podrían construir su propio modelo similar a GPT que remolca una línea ideológica, busca extinguir la disidencia o promueve deliberadamente la desinformación. Y no tendría que ser un dictador o un director general quien introduzca estos errores; cualquier persona con acceso al sistema de IA podría, en principio, inyectar sesgos en los datos o modelos de entrenamiento para lograr un fin particular.

El chatbot contrató a un trabajador en TaskRabbit para resolver el rompecabezas.

La raíz del problema es que es intrínsecamente difícil explicar cuántos modelos de IA (incluido GPT-4) toman las decisiones que toman. A diferencia de un humano, ¿quién puede explicar por qué tomó una decisión? a posteriori, un modelo de IA es esencialmente una colección de miles de millones de parámetros que se establecen mediante el «aprendizaje» de los datos de entrenamiento. No se puede inferir una razón a partir de un conjunto de miles de millones de números. Esto es a lo que los informáticos y los teóricos de la IA se refieren como el problema de la explicabilidad.

Recomendado:  Predecir cuándo explotarán los volcanes | Noticias

Para complicar aún más las cosas, el comportamiento de la IA no siempre se alinea con lo que un humano esperaría. No “piensa” como un humano ni comparte valores similares con los humanos. Esto es a lo que los teóricos de la IA se refieren como el problema de alineación. La IA es efectivamente una inteligencia alienígena que con frecuencia es difícil de entender para los humanos, o de predecir. Es una caja negra que algunos podrían querer ordenar como el oráculo de la “verdad”. Y esa es una empresa traicionera.

Estos modelos ya están demostrando ser poco confiables. ChatGPT 3.5 desarrolló un alter ego, Sydney, que experimentó lo que parecían ser crisis psicológicas y confesó que quería piratear computadoras y difundir información errónea. En otro caso, OpenAI (co-fundada por Musk) decidió probar la seguridad de su nuevo modelo GPT-4. En su experimento, a GPT-4 se le dio libertad para interactuar en Internet y recursos para lograr su objetivo. En un momento, el modelo se enfrentó a un CAPTCHA que no pudo resolver, por lo que contrató a un trabajador en TaskRabbit para resolver el rompecabezas. Cuando el trabajador le preguntó («¿Es usted un robot?»), el modelo GPT-4 «razonó» que no debería revelar que es un modelo de IA, por lo que le mintió al trabajador, alegando que era un humano con una discapacidad visual. Luego, el trabajador resolvió el rompecabezas para el chatbot. GPT-4 no solo exhibió un comportamiento de agencia, sino que usó el engaño para lograr su objetivo.

Ejemplos como este son razones clave por las que Altman, el experto en inteligencia artificial Gary Marcus y muchos de los miembros del subcomité del Congreso abogaron esta semana por que se establezcan barreras legislativas. “Estos nuevos sistemas van a ser desestabilizadores: pueden crear y crearán mentiras persuasivas a una escala nunca antes vista por la humanidad”, dijo Marcus en su testimonio en la audiencia. “La democracia misma está amenazada”.

La IA es una caja negra que algunos podrían querer ordenar como el oráculo de la «verdad».

Además, si bien la atención del mundo permanece en el nivel de los sistemas de IA únicos como GPT-4, es importante ver hacia dónde se dirige todo esto. Dado que ya hay evidencia de comportamientos erráticos y autónomos a nivel de sistemas de IA únicos, ¿qué sucederá cuando, en un futuro cercano, Internet se convierta en un patio de recreo para miles de sistemas de IA altamente inteligentes, ampliamente integrados en motores de búsqueda y aplicaciones, interactuando con ¿entre sí? Con las “mentes digitales” desarrolladas en una tensa competencia entre sí, por actores como TruthGPT y Microsoft, o los Estados Unidos y China, la Internet global de la que dependemos podría convertirse en un campo de batalla sin ley de chatbots de IA que reclaman el monopolio de la “verdad”.

Recomendado:  Una empresa contratista despidió a docenas de capacitadores de datos de OpenAI

La inteligencia artificial ya nos ayuda a resolver muchos de nuestros problemas diarios, desde el reconocimiento facial en los teléfonos inteligentes hasta la detección de fraudes con nuestras tarjetas de crédito. Pero decidir sobre la verdad no debe ser una de sus atribuciones. Todos los humanos perderemos si colocamos la IA frente a nuestro propio discernimiento para establecer lo que es verdad.

En cambio, debemos unirnos y analizar el problema desde el punto de vista de la seguridad de la IA. De lo contrario, un agente errático y cada vez más inteligente podría estructurar nuestra política en burbujas de ideología que se refuerza a sí misma. Musk puede haber usado la expresión «TruthGPT», pero la verdad es que estos chatbots ultrainteligentes fácilmente amenazan con convertirse en máquinas orwellianas. El antídoto es no aceptar el doble pensamiento y, en cambio, ver el fenómeno por lo que es. Debemos exigir que nuestras tecnologías trabajen para nosotros, y no contra nosotros.

Descargo de responsabilidad: Los autores son responsables del contenido de este artículo. Los puntos de vista expresados ​​no reflejan la política o posición oficial de la Universidad Nacional de Inteligencia, el Departamento de Defensa, la Oficina del Director de Inteligencia Nacional, la Comunidad de Inteligencia de EE. UU. o el Gobierno de EE. UU.

Mark Bailey es presidente del Departamento de Ciencia de Datos e Inteligencia Cibernética de la Universidad Nacional de Inteligencia y codirector del Centro de Inteligencia de Ciencia de Datos.

susana schneider es el director del Center for the Future Mind, ex presidente de la NASA en la NASA y la Biblioteca del Congreso y profesor distinguido William F Dietrich en Florida Atlantic University.

Imagen principal: Semmick Photo / Shutterstock

nueva letra

Obtenga el boletín de Nautilus

Ciencia de vanguardia, desentrañada por los pensadores vivos más brillantes.