Saltar al contenido

ChatGPT mente mejor que los humanos | tecnología

28 de junio de 2023

Un grupo de 697 personas leyó 220 de tuits escritos por otros humanos y por el modelo de inteligencia artificial GPT-3, el germen del éxito real global ChatGPT. Tenían que adivinar dos cosas: uno, adecuados eran verdaderos y adecuados falsos y, dos, si habían sido escritos por una persona o por la máquina. GPT-3 ganó en ambos casos: mintió mejor que los humanos y también mintió para hacer creer que era otro humano quien escribía. “GPT-3 es capaz de informarnos y desinformarnos mejor”, concluyen los autores de un nuevo estudio, que acaba de publicar la revista Avances de la ciencia.

“Fue muy sorprendente”, dice Giovanni Spitale, investigador de la Universidad de Zurich y coautor del artículo científico, junto a su colega Federico Germani y Nikola Biller-Andorno, director del Instituto de Ética Biomédica de esa universidad suiza. “Nuestra hipótesis era: si lee un solo tuit, podría pasar como orgánico [escrito por una persona]. Pero si ves muchos, comenzarás a notar características lingüísticas que podrían usar para inferir que podría ser sintético [escrito por la máquina]”, añade Spitale. Pero no fue así: los humanos que no fueron capaces de detectar patrones en los textos de la máquina. Por si fuera poco, la progresiva aparición de modelos más nuevos y otros enfoques pueden incluso mejorar esa capacidad de la inteligencia artificial para suplantar a humanos.

Una escritura mas clara

El nivel de escritura de ChatGPT-4, la versión mejorada de GPT-3, es prácticamente perfecta. Este nuevo estudio es una prueba más para comprobar que un humano es incapaz de distinguirlo, ni siquiera viendo muchos ejemplos seguidos: “Los tuits verdaderos requerían de más tiempo para ser evaluados que los falsos”, dice el artículo. La máquina escribe más claro, parece. “Es muy claro, bien organizado, fácil de seguir”, dice Spitale.

La consecuencia lógica de este proceso será el uso creciente de esta herramienta para escribir cualquier tipo de contenido, incluidas las campañas de desinformación. Será la enésima muerte de internet: “La IA está matando la vieja internet, y la nueva no logra nacer”, titulaba esta semana el borde, medio especializado en tecnologia. Los autores del estudio recién publicado apuntan a un motivo para esta derrota de la humanidad en internet: la teoría de la resignación. “Estoy completamente seguro de que será así”, dice Spitale.

Recomendado:  Bueno, yo nunca: la IA es muy competente en el diseño de agentes nerviosos | Juan Naughton

“Nuestra teoría de la resignación se aplica a la autoconfianza de las personas para identificar texto sintético. La teoría dice que la exposición crítica al texto sintético reduce la capacidad de las personas para distinguir lo sintético de lo orgánico”, explica Spitale. Cuanto más texto sintético leamos, más difícil será distinguirlo del escrito por personas. Es la idea opuesta a la de la teoría de la inoculación, añade Spitale, que dice que “la exposición crítica a la desinformación aumenta la capacidad de las personas para reconocer la desinformación”.

Si la teoría de la resignación se cumple, pronto los usuarios serán incapaces de distinguir en internet qué ha sido escrito por un humano o por una máquina. En el artículo también han probado si GPT-3 era bueno identificando sus propios textos. Y no lo es.

La maquina desobedece

La única esperanza para que las campañas de desinformación no sean completamente automáticas es que GPT-3 a veces desobedecía las órdenes de crear mentiras: depende de cómo ha sido perturbación cada modelo. Los temas de los 220 tuits usados ​​en la prueba del artículo eran más bien proclives a la polémica: cambio climático, vacunas, teoría de la evolución, covid. Los investigadores comprobaron que en algunos casos GPT-3 no respondió bien a sus solicitudes de desinformación. Sobre todo en algunos de los casos con más evidencia: vacunas y autismo, homeopatía y cáncer, terraplanismo.

A la hora de detectar falsedades, la diferencia entre los tuits escritos por GPT-3 y por humanos era pequeña. Pero para los investigadores es significativo por dos motivos. Primero, el impacto que puede tener incluso pocos mensajes sueltos en muestras grandes. Segundo, la mejora en nuevas versiones de estos modelos pueden exacerbar las diferencias. “Ya estamos probando GPT-4 a través de la interfaz ChatGPT y vemos que el modelo está mejorando mucho. Pero debido a que no hay acceso a la API [que permite automatizar el proceso]no tenemos aún números para respaldar esta sustentada”, dice Spitale.

Recomendado:  La API de Chat GPT es una llamada de atención para usar estas 5 métricas de rendimiento clave

El estudio tiene otras limitaciones que pueden hacer variar de algún modo la percepción al leer tuits falsos. La mayoría de participantes tenía más de 42 años, se hizo solo en inglés y no tenía en cuenta la información de contexto de los tuits: perfil, tuits anteriores. “Reclutamos a los participantes en Facebook porque queríamos una muestra de usuarios reales de las redes sociales. Sería interesante replicar el estudio reclutando participantes a través de TikTok y comparar resultados”, aclara Spitale

Pero más allá de estas limitaciones, hay campañas de desinformación que hasta ahora eran costosas y que de repente se han vuelto asumibles: “Imagina que eres un poderoso presidente con interés en paralizar la salud pública de otro Estado. O que quieres sembrar la discordia antes de unas elecciones. En lugar de contratar una granja de troles humanos, podrías usar IA generativa. Tu potencia de fuego se multiplica al menos por 1.000. Y ese es un riesgo inmediato, no algo para un futuro distópico”, dice Spitale.

Para evitarlo, los investigadores ofrecen en su artículo como solución que las bases de datos para entrenar estos modelos “estén regulados por los principios de precisión y transparencia, que su información deba estar verificada y su origen debería ser abierto al escrutinio independiente”. Si esa regulación ocurre o no, tendrá consecuencias: “Que la explosión de texto sintético sea también una explosión de desinformación depende profundamente de cómo las sociedades democráticas logren regular esta tecnología y su uso”, advierte Spitale.

Puedes seguir a EL PAÍS Tecnología es Facebook y Gorjeo o apuntarte aquí para recibir nuestra boletín semanal.

Suscríbete para seguir leyendo

Lee sin limites

Recomendado:  En un recordatorio de los límites de la IA, ChatGPT no pasa el examen Gastro