Cuando se acercan las elecciones, recibimos mucha información sobre políticos y gobiernos. Pero ¿cómo podemos comprobar si es cierto? Los expertos demostraron que consultamos portales de transparencia y datos abiertos u otros registros oficiales, una solución que puede resultar confusa si no estamos familiarizados con términos técnicos y tratamiento de datos complejos.
Normalmente, confiamos en intermediarios, como medios de comunicación, grupos políticos, activistas o asociaciones ciudadanas. Recibimos información directamente de ellos o la encontramos en Google y redes sociales. Pero esto nos expone a diversos problemas de desinformación, como información falsa, engañosa o incorrecta.
Fácil acceso
Debido a su facilidad de uso, muchas personas optan por usar chatbots basado en inteligencia artificial, como ChatGPT o IA de Bing, para obtener respuestas sobre transparencia pública. Estos chatbots escuchen atentamente nuestras preguntas y nos respondan, además de estar abiertos para ampliar la información brindada.
ambos chatbots se basan en tecnología de modelos de lenguaje de gran escala GPT de OpenAI, pero las respuestas de IA de Bing suelen ser mas informales y breves que las de ChatGPT. La principal diferencia radica en que IA de Bingquizás debido a su acceso a búsquedas en Internet, proporciona enlaces a las fuentes utilizadas en sus respuestas, mientras que ChatGPT no lo hace.
Además, es importante destacar que IA de Bing se basa en noticias de prensa en lugar de datos oficiales cuando se trata de preguntas sobre gobiernos y responsables públicos. Por lo tanto, sus respuestas se basan en fuentes secundarias en lugar de información de primera mano.
Invenciones y medias verdades
Cuando se trata de preguntas sobre gobiernos y responsables públicos, los chatbots plantean tres problemas relacionados con la desinformación: alucinaciones, sesgos y concentración empresarial. Estos problemas no son nuevos en el ámbito de la información en Internet.
En primer lugar, está el fenómeno de la alucinacion, que se refiere a la generación de contenido falso o sin sentido en las respuestas. Esto puede ser especialmente perjudicial cuando las respuestas parecen creíbles y convincentes, lo que puede llevarnos a confiar en información falsa.
Además, contribuya a la desinformación mediante la disminución de la credibilidad de toda la información disponible en la Red. También debemos recordar que los seres humanos somos más propensos a aceptar falsedades que se ajustan a nuestras creencias preexistentes.
En segundo lugar, existen posibles sesgos en las respuestas, ya que estas estarán condicionadas por las fuentes utilizadas durante el entrenamiento del chatbot. El riesgo se multiplica porque estas fuentes no se revelan, debido al desconocimiento de los propios creadores y al temor de incluir sin consentimiento información personal o protegida por derechos de autor. Esto puede generar parcialidad en el chatbotpues las decisiones sobre las fuentes empleadas y su importancia pueden influir en las respuestas, favoreciendo algunas fuentes por encima de otras.
No debemos olvidar que actualmente la desinformación se propaga rápidamente en grupos de mensajería y comunidades digitales cerradas. Estos entornos cerrados ocultan la magnitud de las campañas de desinformación y permiten que lleguen a aquellos grupos más susceptibles de creer en ellas.
Naciones Unidas chatbot que presenta alucinaciones o sesgos, ya sean intencionados o accidentales, se puede convertir rápidamente en una fuente de autoridad en estos círculos. Debido a su naturaleza de diálogo y su capacidad para crear una apariencia de empatía con los usuarios, se vuelve difícil cuestionar las respuestas antes de que los ciudadanos las reciban y las asimilen.
concentracion empresarial
En tercer lugar, la alta demanda de recursos energeticos y hardware necesario para producir chatbots ha funcionado a que su oferta esté centralizada en grandes gigantes tecnológicos como Meta, Google o la alianza OpenAI-Microsoft.
Esto plantea un nuevo riesgo de desinformación, ya que estas empresas pueden influir en las respuestas y ser presionadas por los gobiernos para sesgar la información, tal como ocurre en los organismos como el de China. Incluso podría convertirse en una amenaza para las democracias si deciden favorecer sus propios intereses o agendas políticas específicas al proporcionar respuestas sesgadas.
Además, la centralización en corporaciones conocidas por extraer datos de los ciudadanos plantea problemas adicionales de privacidad en Internet. llevar a cabo la creación de perfiles y al seguimiento de ciudadanos interesados en temas específicos que podrían. Este escenario plantea preocupaciones similares a los desórdenes informativos ocurridos en procesos electorales pasados, como el caso Cambridge Analytica durante las elecciones estadounidenses de 2016.
nuestro futuro
Los modelos de inteligencia artificial pronto controlarán muchos aspectos de nuestra vida cotidiana, y la transparencia de los gobiernos no será una excepción. La forma en que se diseña y se alimenta de datos los chatbots, así como las empresas u organizaciones que los desarrollen, determinarán nuestro acceso a la información pública. Esto tendrá un impacto directo en la relación entre los ciudadanos y los gobiernos, fundamental para cualquier sociedad democrática, y no debería quedar exclusivamente en manos de los intereses comerciales del sector privado que actualmente dominan los avances de esta tecnología.
Sin embargo, no debemos olvidar que nuestra última línea de defensa es nuestro propio pensamiento crítico. Aunque contar con una ayuda en forma de chatbot preguntón que desafíe nuestra credulidad puede ser útil, siempre debemos cuestionar la información que recibimos y buscar fuentes confiables y diversas para obtener una visión más completa y precisa de los asuntos públicos.