La aparición de las primeras aplicaciones de inteligencia artificial (IA) Generativa disponibles para el público en general (como GPT-3 y GPT-4) ha dado pie a todo tipo de debates e incluso cierta alarma entre determinados colectivos. En un artículo anterior, planteamos la necesidad de que Europa defina un paraqué ético de la inteligencia artificial. Efectivamente, la propuesta de Reglamento de Inteligencia Artificial (AI Act) que se debate actualmente en las instituciones de la UE busca que el uso de la IA en Europa esté de acuerdo con los valores, los derechos fundamentales y los principios de la UE.
La piedra angular de dicho reglamento es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad o los derechos fundamentales de una persona, como la privacidad. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Por ejemplo, los sistemas de clasificación social vigentes en China son inaceptables y están directamente prohibidos. Los sistemas de alto riesgo (como vehículos autónomos y dispositivos médicos) precisarán supervisión humana, deberán ser probados rigurosamente y documentados exhaustivamente. Los ciudadanos deben ser informados de que interactúan con sistemas de riesgo limitado (como un Chatbot). Por último, la mayoría de las aplicaciones son de riesgo mínimo y no tendrán ninguna limitación.
Por otra parte, la base tecnológica de las aplicaciones de la IA generativa son grandes modelos de lenguaje que procesan (se entrenan) con gran cantidad de información disponible en internet. Y desgraciadamente, internet es un espacio digital en el que abunda la información de poca calidad, engañosa o falsa. Todos sabemos lo fácil que es encontrar en internet información sesgada, falsa (fake news), suplantaciones de identidad (deep fakes), amenazas, información con la que se chantajea a personas y empresas, pornografía, etc. ¿Hasta qué punto puede ser confiable una aplicación de IA que ha procesado y se ha tratado con una cantidad de información similar, no ya de dudosa utilidad, sino en algunos casos establecidos dañina para la sociedad?
En febrero de 2020, la Comisión Europea presentó una estrategia europea de datos. El objetivo era “convertirse en un modelo de referencia de una sociedad empoderada por los datos para tomar mejores decisiones, tanto en el ámbito empresarial como en el sector público”. Para conseguirlo había que desarrollar un sólido marco jurídico en términos de protección de datos, derechos fundamentales, seguridad y ciberseguridad. Además, este marco debería crear un entorno atractivo para que en 2030 la cuota de la UE en la economía de los datos se corresponda al menos con su peso económico, gracias a un mercado único de datos. También en febrero de 2020, la Comisión Europea presentó el Libro Blanco sobre la Inteligencia Artificial. Como la IA se construye con datos, algoritmos y capacidad informática, la Comisión proponía aprovechar el esfuerzo que había que realizar para alcanzar el liderazgo en la economía de los datos y crear así un ecosistema de inteligencia artificial que acerque las ventajas de la tecnología a la sociedad ya la economía europea en su conjunto.
Como consecuencia de las iniciativas anteriores, desde entonces se ha aprobado un reglamento de gobernanza de datos, que fija (entre otras) las condiciones para la reutilización, dentro de la Unión, de determinadas categorías de datos que obren en poder de organismos del sector público (como los datos de educación o salud pública). Se están dando los últimos pasos para la aprobación del reglamento de datos (Data Act). Este reglamento de datos establecerá normas comunes para el intercambio de datos generados por el uso de productos conectados o servicios relacionados (por ejemplo, Internet de las cosas, máquinas industriales) para garantizar la equidad en los contratos de intercambio de datos. Y, por supuesto, se está preparando el Reglamento de Inteligencia Artificial mencionado anteriormente.
Pero es que además en la UE ya tenemos en vigor leyes que son muy relevantes para lo que aquí se discute. La directiva sobre los derechos de autor y derechos afines en el mercado único digital de 2019 ofrece un alto grado de protección a los titulares de los derechos, también en internet. El reglamento de servicios digitales, en vigor desde octubre de 2022 (pero que no tendrá todo su efecto hasta 2024), contempla sanciones a los prestadores de servicios que incumplan las obligaciones descritas en el reglamento respecto a la difusión de información incorrecta, incompleta o engañosa. Y finalmente, el reglamento general de protección de datos se ha consolidado como la norma de protección de datos personales de referencia a nivel mundial, precisamente por la ausencia de regulación en el resto de las regiones del mundo.
Es decir, no se trata de desplegar la ley de IA para evitar desastres existenciales, o al menos no únicamente. Para disminuir los riesgos asociados a los últimos avances en IA, se puede avanzar mucho contribuyendo a limpiar toda la información dañina que circula por la red, y Europa está muy bien posicionada para contribuir a esta limpieza. Las iniciativas descritas en los párrafos anteriores ilustran el esfuerzo realizado hasta ahora en este sentido.
Finalmente, todas las medidas descritas hasta ahora para mejorar la calidad de la información en internet deben complementarse con una estrategia industrial más ambiciosa. No debemos conformarnos con tener los mejores organismos reguladores. Además, debemos aspirar a ser protagonistas del desarrollo tecnológico que se avecina. Ya hemos aprendido de primera mano cómo los problemas de abastecimiento de circuitos integrados afectaron muy negativamente a la industria europea y al empleo. Y este problema no se resuelve con leyes. Se resuelve con una política industrial clara y decidida, hoy por hoy ausente en Europa.
Grupo de Reflexión de Ametic
Sigue toda la informacion de cinco dias es Facebook, Gorjeo y LinkedIna menudo nuestro boletín Agenda de Cinco Días