A Hace un par de semanas tuiteé un llamado a los periodistas independientes para que me presentaran ideas para la sección de ciencia y tecnología de la nueva revisión del observador. Como era de esperar, dados los titulares, los temores y el interés en los chatbots LLM (modelo de lenguaje grande) como ChatGPT, muchas de las sugerencias que inundaron se centraron en la inteligencia artificial, incluido un discurso sobre cómo se está empleando para predecir la deforestación en el Amazonas.
Sin embargo, una presentación de un estudiante de ingeniería que había publicado un par de artículos en Medium parecía estar montando la ola de la inteligencia artificial con más descaro. Ofreció tres ideas principales: lanzamientos sobre agricultura innovadora, almacenamiento de datos y el potencial terapéutico de la realidad virtual. Aunque coherentes, los lanzamientos tenían una autoridad sosa, una estructura de párrafos repetitivos y finales optimistas destacados, que si has estado jugando con ChatGPT o leyendo sobre los últimos percances del chatbot de Google Bard, son indicios de contenido generado por chatbot.
Se los mostré a un colega. “Se sienten sintéticos”, dijo. Otro los describió como si tuvieran el tono de un “documento de póliza de seguro de vida”. ¿Eran correctas nuestras sospechas? Decidí preguntarle a ChatGPT. El bot no estaba tan seguro: «Los textos podrían haber sido escritos por un ser humano, ya que demuestran un alto nivel de conocimiento y experiencia en el dominio, y no contienen errores o inconsistencias evidentes», respondió.
Los chatbots, sin embargo, tienen la reputación de fabricar la verdad e inventar fuentes, por lo que tal vez no sean los verificadores de datos más confiables. Sugerí que si hay algo que los chatbots deberían poder hacer, es reconocer la salida de un chatbot. El chatbot no estuvo de acuerdo. Un escritor humano podría imitar a un chatbot, afirmó, y en el futuro «los chatbots pueden generar texto que no se pueda distinguir de la escritura humana».
Al igual que con cualquier cosa que «dice» un chatbot, uno debe ser escéptico: la tecnología en la que se basan crea cosas que suenan plausibles. Si también resulta ser exacto, eso no es el resultado del razonamiento o la inteligencia. Si el chatbot fuera un poco más inteligente, podría haber sugerido que pusiera el contenido sospechoso en el clasificador de texto de OpenAI. Cuando lo hice, dos de los lanzamientos fueron calificados como «posiblemente» generados por IA. De las dos publicaciones de blog de Medium con el nombre del estudiante, una fue calificada como «posiblemente» y la otra como «probable».
Decidí enviarle un correo electrónico y preguntarle si sus lanzamientos fueron escritos por un chatbot. Su respuesta fue honesta: «Debo confesar que tiene razón en su suposición de que mi escritura se generó con la ayuda de tecnología de inteligencia artificial».
Pero no se avergonzó: “Mi objetivo es aprovechar el poder de la IA para producir contenido de alta calidad que satisfaga las necesidades de mis clientes y lectores. Creo que al combinar lo mejor de ambos mundos, la creatividad humana y la tecnología de IA, podemos lograr grandes cosas”. Incluso este correo electrónico, según el detector de OpenAI, fue «probablemente» generado por IA.
Aunque el Observador no lo contratará para escribir ningún artículo, parece muy adecuado para postularse para un trabajo en Newsquest, que la semana pasada anunció el puesto de reportero impulsado por IA de £ 22,000 para su operación de noticias locales.
Es difícil predecir cómo la IA afectará al periodismo; presumiblemente, Newsquest sabrá que medios como diario de los hombres y Cnet han utilizado IA para escribir artículos sobre salud y finanzas personales, pero se descubrió que estaban llenos de inexactitudes y falsedades. Y que en enero, BuzzFeed anunció que usaría IA para «mejorar los cuestionarios», pero rápidamente implementó contenido de IA en otras áreas del sitio. “Buzzy”, su “asistente creativo de IA”, ha producido unas 40 guías de viaje, con un estilo de escritura futurismo describe como «increíblemente trillada».
Estos artículos están etiquetados como escritos con la ayuda o por un chatbot. Pero al investigar un artículo, los periodistas podrían usar chatbots para resumir informes o sugerir preguntas para un entrevistado. Si pequeños fragmentos de este texto generado por IA llegan a un artículo, ¿es necesario divulgarlo? Esto se consideró en una discusión del Club de Prensa de San Francisco la semana pasada, que la presentadora del panel, Rachel Metz de Bloomberg, resumió así: «¿Qué tan importante es para usted que las noticias que lee estén escritas por un ser humano?»
En el Observador decimos “muy importante”. Preguntas como esta están siendo consideradas por todas las organizaciones de noticias, incluidos nuestros colegas en el guardiánque están investigando más ampliamente el efecto de la tecnología en el periodismo.
Mientras tanto, el Observador permanece libre de IA. Cuando examine otras fuentes de noticias, tenga cuidado con el contenido que parece material promocional de servicios financieros.