Saltar al contenido

Se acaba el tiempo para que el sistema electoral del Reino Unido se mantenga al día con la IA, dicen los reguladores | reforma electoral

28 de junio de 2023

Se está acabando el tiempo para promulgar cambios generales para garantizar que el sistema electoral de Gran Bretaña siga el ritmo de los avances en inteligencia artificial antes de las próximas elecciones generales, temen los reguladores.

Las nuevas leyes no llegarán a tiempo para las elecciones, que se llevarán a cabo a más tardar en enero de 2025, y el organismo de control que regula el financiamiento de las elecciones y establece los estándares sobre cómo se deben llevar a cabo las elecciones hace un llamado a los activistas y partidos políticos para que se comporten de manera responsable.

Hay preocupaciones en el Reino Unido y los EE. UU. de que sus próximas elecciones podrían ser las primeras en las que la IA podría causar estragos al generar videos e imágenes falsas convincentes. La tecnología de este tipo está en manos no solo de expertos políticos y tecnológicos, sino cada vez más del público en general.

Un ejemplo del tipo de nuevas obligaciones que podrían legislarse en el Reino Unido es la responsabilidad de los partidos políticos de detallar cuánto gastan en IA.

El gobierno del Reino Unido continúa las conversaciones con los reguladores, incluida la Comisión Electoral, que dice que los nuevos requisitos en virtud de la legislación a partir de 2022 para que el material de la campaña digital incluya una «impresión», ya que contribuirá a garantizar que los votantes puedan ver quién pagó por un anuncio o está tratando para influir en ellos.

“Pero los votantes aún no podrán ver cuánto dinero han gastado los partidos y los activistas específicamente en publicidad digital antes de una elección, o si un anuncio que están viendo se generó con IA”, dijo Louise Edwards, directora de regulación y transformación digital en la Junta Electoral.

Recomendado:  Su trabajo se puede hacer mejor con mi algoritmo | blog@CACM

Ella dijo que la ley que regula las campañas políticas y el gasto en las elecciones se ha quedado atrás con respecto al crecimiento y los métodos de las campañas digitales. “Existe un problema sobre cómo los activistas gastan su dinero, pero también existe una preocupación de nuestra parte sobre la confianza del público en cómo se realizan las campañas políticas”, dijo.

La confianza en la forma en que se regulan las campañas en línea era «demasiado baja», dijo Edwards, señalando la propia investigación de la comisión que encontró que casi el 60% del público estaba preocupado por la regulación de las campañas políticas en línea.

“En un área como las campañas en línea y, en particular, la IA [where] la ley no está actualizada, diríamos que hay un papel aquí para que diferentes personas involucradas en las elecciones actúen de manera responsable”, dijo. “Ahí es donde entran los activistas que actúan de manera responsable, y nosotros, como reguladores, pensamos qué podemos hacer para asegurarnos de que la gente tenga confianza en las próximas elecciones, que probablemente tendrán lugar antes de enero de 2025, que no está muy lejos”.

Si bien se instó a los activistas a comportarse de manera responsable, Edwards dijo que los cambios legislativos inevitablemente tendrían que esperar hasta después de las elecciones.

El miércoles, el presidente de Microsoft, un patrocinador clave de la compañía detrás del chatbot ChatGPT, dijo que los gobiernos y las empresas tecnológicas tenían hasta principios del próximo año para proteger las elecciones de 2024 en el Reino Unido y EE. UU. de la interferencia generada por la IA.

Recomendado:  ¿Cómo puede la inteligencia artificial ayudar en la creación de mejores correos electrónicos?

Brad Smith dijo que los gobiernos deberían revisar las leyes existentes para hacer que la desinformación generada por IA sea ilegal y decidir cómo se debe tratar el contenido engañoso basado en IA.

“Necesitamos resolver esto, diría que a principios de año, si vamos a proteger nuestras elecciones en 2024”, dijo en un evento organizado por el grupo de expertos Chatham House.

data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.NewsletterSignupBlockElement» class=» dcr-173mewl» wp_automatic_readability=»2.5787476280835″>saltar promoción del boletín anterior

después de la promoción del boletín

Dijo que esperaba que las empresas de tecnología lanzaran una iniciativa para marcar con agua el contenido generado por IA.

Las preocupaciones sobre el posible uso indebido de la IA generativa se han disparado después de los avances en la tecnología, con herramientas como ChatGPT y Midjourney que producen texto, imágenes e incluso voz convincentes.

Sam Altman, director ejecutivo del creador de ChatGPT, OpenAI, dijo en una audiencia en el Congreso en Washington el mes pasado que los modelos detrás de la última generación de tecnología de IA podrían manipular a los usuarios.

“La capacidad general de estos modelos para manipular y persuadir, para proporcionar desinformación interactiva uno a uno es un área importante de preocupación”, dijo.

Recomendado:  Los centros de excelencia de IA aceleran la adopción de la industria de la IA

Mientras que las aplicaciones de software anteriores, conocidas como bots, se basaban en simples mensajes preescritos enviados en masa en plataformas en línea, o edificios llenos de trolls pagados para realizar el trabajo manual de interactuar con otros humanos, ChatGPT y otras tecnologías plantean la posibilidad de interferencia electoral interactiva en escala.