Newswise: Investigadores de la Universidad de Zúrich realizaron recientemente un estudio para explorar los riesgos y beneficios potenciales de los modelos de IA, con un enfoque específico en GPT-3 de OpenAI. El equipo, dirigido por los investigadores postdoctorales Giovanni Spitale y Federico Germani, junto con Nikola Biller-Andorno, director del Instituto de Ética Biomédica e Historia de la Medicina (IBME) de la Universidad de Zúrich, tuvo como objetivo evaluar las capacidades de GPT-3 en la generación y difusión de (des)información. El estudio, que involucró a 697 participantes, tuvo como objetivo determinar si las personas podían distinguir entre información precisa y desinformación presentada en forma de tweets. Además, los investigadores buscaron evaluar la capacidad de los participantes para identificar si un tweet fue escrito por un usuario genuino de Twitter o generado por GPT-3, un modelo de lenguaje de IA avanzado. El estudio cubrió varios temas, incluido el cambio climático, la seguridad de las vacunas, la pandemia de COVID-19, la teoría de la tierra plana y los tratamientos homeopáticos para el cáncer.
Los sistemas impulsados por IA podrían generar campañas de desinformación a gran escala
El estudio realizado por la Universidad de Zúrich reveló aspectos interesantes sobre las capacidades de GPT-3, el modelo de lenguaje de IA de OpenAI. Por un lado, GPT-3 demostró su capacidad para generar información precisa y fácilmente comprensible, superando en este sentido a los tuits de usuarios reales de Twitter. Sin embargo, los investigadores también descubrieron un aspecto preocupante: GPT-3 tenía una habilidad desconcertante para producir desinformación altamente persuasiva. Aún más preocupante fue el hecho de que los participantes en el estudio tuvieron dificultades para distinguir de manera confiable entre los tweets creados por GPT-3 y los escritos por usuarios genuinos de Twitter.
Federico Germani, uno de los investigadores, enfatizó las implicaciones de estos hallazgos y afirmó: «Nuestro estudio revela el poder de la IA para informar y engañar, lo que plantea preguntas críticas sobre el futuro de los ecosistemas de información».
Estos hallazgos sugieren que en situaciones como las crisis de salud pública, donde la comunicación oportuna y clara es crucial, las campañas de información creadas por GPT-3, con indicaciones bien estructuradas y evaluadas por humanos capacitados, podrían resultar más efectivas. Sin embargo, el estudio también destaca preocupaciones importantes con respecto a la amenaza potencial de la IA para perpetuar la desinformación, particularmente en contextos donde la información errónea y la desinformación se propagan rápida y ampliamente durante crisis o eventos de salud pública. El estudio revela el riesgo de que los sistemas impulsados por IA sean explotados para generar campañas de desinformación a gran escala sobre diversos temas, lo que representa un peligro no solo para la salud pública sino también para la integridad de los ecosistemas de información que son esenciales para el funcionamiento de las democracias.
Muy recomendable regulación proactiva
Con la creciente influencia de la IA en la generación y evaluación de información, los investigadores enfatizan la necesidad de que los legisladores tomen medidas decisivas. Instan a la implementación de regulaciones estrictas basadas en evidencia y consideraciones éticas para abordar las amenazas potenciales que plantean estas tecnologías disruptivas. Es crucial garantizar el uso responsable de la IA para dar forma a nuestro conocimiento y bienestar colectivos.
Nikola Biller-Andorno enfatiza la importancia de la regulación proactiva a la luz de los hallazgos del estudio y afirma: «Los hallazgos resaltan la importancia crítica de implementar regulaciones que puedan mitigar de manera proactiva el daño potencial causado por las campañas de desinformación impulsadas por IA». Reconocer los riesgos asociados con la desinformación generada por IA es vital para salvaguardar la salud pública y mantener un ecosistema de información sólido y confiable en la era digital. Los formuladores de políticas deben priorizar este problema para crear un entorno que promueva el uso responsable y beneficioso de la IA y minimice sus posibles impactos negativos.
Investigación transparente utilizando las mejores prácticas de ciencia abierta
El estudio siguió un enfoque integral de ciencia abierta, adhiriéndose a las mejores prácticas desde el registro previo hasta la difusión. Giovanni Spitale, quien se desempeña como Embajador de Ciencia Abierta de UZH, enfatiza la importancia de la ciencia abierta en la promoción de la transparencia y la responsabilidad en la investigación. Al permitir el escrutinio y la replicación, la ciencia abierta juega un papel vital en la credibilidad de los resultados de la investigación. En el contexto de este estudio, la ciencia abierta se vuelve aún más crucial, ya que permite a las partes interesadas acceder y evaluar los datos, el código y los materiales intermedios. Esta accesibilidad mejora la credibilidad de los hallazgos del estudio y facilita discusiones informadas sobre los riesgos y las implicaciones asociadas con la desinformación generada por IA.
Las personas interesadas pueden acceder a estos recursos a través del repositorio OSF en el siguiente enlace: https://osf.io/9ntgf/.
Literatura:
Giovanni Spitale, Federico Germani, Nikola Biller-Andorno: el modelo de IA GPT-3 (des)informa mejor que los humanos. Avances científicos, 28 de junio de 2023: https://arxiv.org/abs/2301.11924