Ll mes pasado, uno de nuestros periodistas recibió un correo electrónico interesante. Un investigador se había topado con la mención de un artículo de The Guardian, escrito por el periodista sobre un tema específico unos años antes. Pero la pieza estaba resultando esquiva en nuestro sitio web y en la búsqueda. ¿Quizás se había cambiado el titular desde que se lanzó? ¿Se había eliminado intencionalmente del sitio web debido a un problema que habíamos identificado? ¿O nos habíamos visto obligados a retirarlo por el tema de la pieza a través de medios legales?
El reportero no recordaba haber escrito el artículo específico, pero el titular ciertamente sonaba como algo que habrían escrito ellos. Era un tema con el que se identificaban y tenían antecedentes de cobertura. Preocupados de que pudiera haber algún error de nuestra parte, les pidieron a sus colegas que revisaran nuestros sistemas para rastrearlo. A pesar de los registros detallados que mantenemos de todo nuestro contenido, y especialmente sobre eliminaciones o problemas legales, no pudieron encontrar ningún rastro de su existencia.
¿Por qué? Porque nunca se había escrito.
Afortunadamente, el investigador nos había dicho que había llevado a cabo su investigación utilizando ChatGPT. En respuesta a que se le preguntara sobre artículos sobre este tema, la IA simplemente había inventado algunos. Su fluidez y la gran cantidad de datos de entrenamiento en los que se basa significaron que la existencia de la pieza inventada incluso parecía creíble para la persona que no la había escrito en absoluto.
Se ha escrito mucho sobre la tendencia de la IA generativa a fabricar hechos y eventos. Pero esta peculiaridad específica, la invención de las fuentes, es particularmente preocupante para las organizaciones de noticias y los periodistas de confianza, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva. Y para los lectores y el ecosistema de información más amplio, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera, y bien podría alimentar teorías de conspiración sobre la misteriosa eliminación de artículos sobre temas delicados que nunca existieron en primer lugar.
Si esto parece un caso extremo, es importante tener en cuenta que ChatGPT, desde un comienzo frío en noviembre, registró 100 millones de usuarios mensuales en enero. TikTok, sin duda un fenómeno digital, tardó nueve meses en alcanzar el mismo nivel. Desde ese momento, hemos visto a Microsoft implementar la misma tecnología en Bing, presionando a Google para que haga lo mismo con Bard.
Ahora están implementando estos sistemas en Google Workspace y Microsoft 365, que tienen una participación de mercado superior al 90% entre ellos. Un estudio reciente de 1,000 estudiantes en los EE. UU. encontró que el 89% ha usado ChatGPT para ayudar con una tarea. La tecnología, con todas sus fallas, se ha normalizado a una velocidad increíble y ahora está en el corazón de los sistemas que actúan como punto clave de descubrimiento y creatividad para una parte importante del mundo.
Hace dos días, un estudiante se puso en contacto con nuestro equipo de archivos para preguntar sobre otro artículo perdido de un periodista mencionado. De nuevo, no había rastro del artículo en nuestros sistemas. ¿La fuente? ChatGPT.
Es fácil dejarse atrapar por los detalles de la IA generativa, porque es intrínsecamente opaca. Las ideas y las implicaciones, ya exploradas por académicos en múltiples disciplinas, son enormemente complejas, la tecnología se está desarrollando rápidamente y las empresas con grandes cuotas de mercado existentes la están integrando tan rápido como pueden para obtener ventajas competitivas, interrumpirse mutuamente y, sobre todo, satisfacer accionistas.
Pero la pregunta para las organizaciones de noticias responsables es simple y urgente: qué puede hacer esta tecnología en este momento y cómo puede beneficiar el periodismo responsable en un momento en que el ecosistema de información más amplio ya está bajo la presión de la desinformación, la polarización y los malos actores.
Esta es la pregunta con la que estamos lidiando actualmente en The Guardian. Y es por eso que aún no hemos anunciado un nuevo formato o producto basado en IA generativa. En su lugar, hemos creado un grupo de trabajo y un pequeño equipo de ingeniería para centrarnos en aprender sobre la tecnología, considerar la política pública y las cuestiones de PI en torno a ella, escuchar a académicos y profesionales, hablar con otras organizaciones, consultar y capacitar a nuestro personal y explorar de manera segura y responsable cómo funciona la tecnología cuando se aplica al uso periodístico.
Al hacer esto, descubrimos que, además de preguntarnos cómo podemos usar la IA generativa, estamos reflexionando cada vez más sobre para qué sirve el periodismo y qué lo hace valioso. Estamos entusiasmados con el potencial, pero nuestra primera tarea debe ser comprenderlo, evaluarlo y descifrar su impacto potencial en el resto del mundo.
En las próximas semanas publicaremos una explicación clara y concisa de cómo planeamos emplear la IA generativa. En los términos más simples, continuaremos manteniéndose en los más altos estándares periodísticos y seguiremos siendo responsables ante nuestros lectores y el mundo por el periodismo que publicamos. Si bien mucho ha cambiado en los últimos seis meses, en este aspecto crucial, nada ha cambiado en absoluto.