Un primer paso para poner limites a la expansión sin control de la inteligencia artificial. Es lo que ha hecho el Parlamento europeo esta misma semana, que ha acordado las primeras medidas por las que apuestan en la futura ley para regular la IA.
Tras el manifiesto firmado hace tan solo unos meses por expertos del sector pidiendo “frenar la inteligencia artificial por ser una amenaza para la humanidad”, la Cámara acordó esta misma semana con una mayoría holgada limitar el desarrollo de algunas de las tecnologías más polémicas.
Es el caso, por ejemplo, de Chat GPT. De ahora en adelante, según lo acordado en Bruselas, la eurocámara apuesta por obligar a avisar de que sus contenidos se han generado artificialmente. Así, el pleno reclama restricciones estrictas para la Inteligencia Artificial en la Unión Europea, con un enfoque basado en el nivel de riesgo y restricciones en función del mismo.
Según explica Carles Sierra, director del Instituto de Inteligencia Artificial del CSIC, uno de los aspectos más destacables de este acuerdo, es que se ha puesto el foco precisamente en los sistemas de IA generativa como Chat GPT. Y es que “la alerta se planteó porque hay empresas que ponen en el mercado productos que no están totalmente cocinados y que pueden tener riesgos no analizados”.
DESDE 2021
De esa manera, la nueva Ley europea parte de la propuesta presentada en abril de 2021 por la Comisión Europea para fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con multas represoras, de manipulación o discriminatorias.
En este contexto, Bruselas abogó por distinguir sistemas de “alto riesgo” para prohibir “en principio su uso” pero dejando la puerta abierta a su autorización en circunstancias excepcionales y previa autorización judicial, por ejemplo en el caso de la vigilancia biométrica. Así, como sostiene Sierra, los niveles de riesgo están “bien puestos”, además, “será un documento que se irá revisando, por lo que cabe la posibilidad de ir añadiendo elementos al listado”.
Los eurodiputados, sin embargo, van más allá y apostaron por prohibir totalmente el uso de herramientas para la vigilancia biométrica, el reconocimiento de emociones y los sistemas policiales predictivos.
Para ello, plantean que esos sistemas sean incluidos en el listado propuesto por bruselas de herramientas que plantean un “riesgo inaceptable” y deben quedar prohibidas en todo caso. En dicha lista figura ya el veto, por ejemplo, a aplicaciones como el sistema que utiliza china para vigilar a sus ciudadanosoa mecanismos de manipulación de la voluntad, por ejemplo instalados en juguetes con asistente de voz para incitar al menor a comportamientos peligrosos.
De esta forma, Europa aspira a vetar los sistemas de identificación biométrica remota, en tiempo real o no, en espacios públicos. Es el caso de los sistemas de categorización biométrica que utilizan características identitarias como el género, la raza o la religión y los sistemas policiales predictivos. Y es que el director del instituto de inteligencia artificial del CSIC sostiene que es una de las medidas usadas “para preservar los valores basicos de las personas”. Pero no es la única medida en la que la Eurocámara hace hincapié. También defenderán prohibir el uso de sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; asi como el rastreo de imagenes faciales sacadas de internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial.
Por otro lado, piden considerar de alto riesgo sistema de IA que pueden afectar significativamente al medio ambiente oa la salud, a la seguridad o los derechos fundamentales de las personas, y aquellos que pueden influir en los votantes y el resultado de las elecciones y en los sistemas de optimizacion utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios).
UN PRIMER PASO
La nueva legislacion europeapionera en el plano global, establecer también estrictas para el uso de normas de lenguaje artificial como ChatGPT, sistemas para los que los que “habrá requisitos de transparencia”, en especial para que deban alertar de que los contenidos han sido generados con Inteligencia Artificial y no se trata, por ejemplo, de imágenes reales, “y no lleven así a engaño”, asegura Sierra.
Como conclusión del primer paso hacia el coto pionero de la inteligencia artificial, Sierra sostiene que “el objetivo es el mercado regular y que las empresas separan los límites que no puedes exceder, las líneas rojas”. Así, define estas medidas como “un paso adelante que calmará el pánico que se había creado en los últimos meses”, ya que afirma que había calado en la sociedad el mensaje de que la IA “iba a acabar con nosotros”. Pero, nada más lejos de la realidad: “Tiene beneficios potenciales para la humanidady siempre un botón de stop”, zanja el experto.