Saltar al contenido

La regulación de la IA sigue siendo esquiva | Noticias

5 de noviembre de 2020

Sopesar las regulaciones para la inteligencia artificial.

Los gobiernos están considerando la posibilidad de regular la inteligencia artificial para combatir los prejuicios involuntarios en los servicios públicos y temen que la inteligencia artificial pueda quedar fuera de control, entre otras razones.

Crédito: abbyy.com

El sesgo involuntario en la prestación de servicios públicos, el rápido aumento de la investigación académica y comercial y los temores (hasta la fecha infundados) de que la inteligencia artificial (IA) pueda quedar fuera de control están empujando la tecnología por el camino de la regulación. ¿Cómo será y cuándo se aplicará?

Hasta ahora no hay respuestas definitivas a estas preguntas, pero hay propuestas sobre la mesa. También hay iniciativas para orientar el uso y los resultados de la IA por parte de los foros multilaterales, entre ellos el Consejo de Europa, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la Organización Mundial del Comercio (OMC) y la Organización de Cooperación y Desarrollo Económicos (OCDE).

La OCDE fue una de las primeras en actuar y estableció principios sobre la IA que promueven una IA innovadora y digna de confianza, y que respeta los derechos humanos y los valores democráticos. Los principios fueron adoptados en mayo de 2019 por los países miembros de la OCDE. En junio de 2019, el G-20 adoptó principios sobre la IA centrados en el ser humano que se inspiran en los principios de la IA de la OCDE.

Desarrollo de la reglamentación de los Estados Unidos

Principios como éstos, junto con las normas industriales emergentes, contribuyen al desarrollo de la reglamentación de la IA, con publicaciones como el memorando de enero de 2020 sobre la Guía para la reglamentación de las aplicaciones de la inteligencia artificial de la Oficina de Administración y Presupuesto de los Estados Unidos, en el que se aclara el objetivo del Decreto Ejecutivo 13859 de febrero de 2019 del Presidente Trump, en el que se pide «la participación federal en la elaboración de normas técnicas» para la IA:

«Para promover la innovación, el uso y la adopción de las aplicaciones de la IA, las normas podrían abordar muchos aspectos técnicos. . . . Además, el compromiso federal con el sector privado en la elaboración de normas de consenso voluntario ayudará a los organismos a desarrollar conocimientos especializados en materia de IA y a identificar normas prácticas para su utilización en la reglamentación».

Recomendado:  Jimi Hendrix, Rolling Stones y Kate Bush: el acuerdo multimillonario que podría convertirlos en obras de arte en 3D | Fotografía

El nacimiento de la regulación de la IA en los Estados Unidos es palpable en el memorando, que está dedicado a las aplicaciones de la IA fuera del gobierno federal y se centra en 10 principios para la IA «débil», como el aprendizaje automático; la IA «fuerte» que puede incluir el sentimiento o la conciencia está fuera del alcance del memorando. El memorando no incluye un calendario para la regulación.

Más allá de este enfoque de la regulación de la IA de la Casa Blanca, otros esfuerzos para regular la IA están fragmentados. En la primera mitad de 2020, los miembros del Congreso introdujeron una variedad de proyectos de ley relevantes, incluyendo:

Aunque estas actividades cubren una gama de posibilidades de IA, el tema más destacado es el reconocimiento facial. Como reflejo de las amplias preocupaciones sobre esta IA, en junio de 2020, el Comité de Política Tecnológica de los Estados Unidos de la Asociación de Maquinaria de Computación (ACM) emitió una declaración sobre los principios y requisitos previos para el desarrollo, la evaluación y el uso de tecnologías de reconocimiento facial no sesgadas:

«La tecnología produce con demasiada frecuencia resultados que demuestran un claro sesgo basado en características étnicas, raciales, de género y otras características humanas reconocibles por los sistemas informáticos. Las consecuencias de ese sesgo con frecuencia pueden ir y van mucho más allá de la inconveniencia de un perjuicio profundo, en particular para la vida, los medios de subsistencia y los derechos fundamentales de las personas de determinados grupos demográficos, incluidas algunas de las poblaciones más vulnerables de nuestra sociedad».

En conclusión, dice: «El USTPC insta a que se suspenda inmediatamente el uso actual y futuro, privado y gubernamental, de las tecnologías de reconocimiento facial en todas las circunstancias conocidas o razonablemente previsibles que sean perjudiciales para los derechos humanos y legales establecidos».

Hodan Omaar, analista de políticas de la IA en el Centro de Innovación de Datos, que hace un seguimiento de la legislación sobre la IA, sugiere que los principios de la Casa Blanca permitirán a los organismos mejorar su propia orientación sobre la IA, en lugar de estar sujetos a una regulación generalizada. La reglamentación debe ser contextual y no estar vinculada a tipos de soluciones, y debe pasar de los conceptos de alto nivel (ética, responsabilidad, explicabilidad, etc.) a la medición del impacto de la IA. Esto, dice, es un obstáculo.

Recomendado:  Educación tecnológica efectiva impulsada a través de la inteligencia artificial

Desarrollo de la reglamentación en Europa

La Comisión Europea (CE) expuso su último enfoque de la IA en el Libro Blanco de febrero de 2020 sobre Inteligencia Artificial: un enfoque europeo de la excelencia y la confianza. En el documento se señala que la CE apoya «un enfoque reglamentario y orientado a la inversión con el doble objetivo de promover la adopción de la IA y de abordar los riesgos asociados a determinados usos de esta nueva tecnología».

Al igual que el memorando de los Estados Unidos, el Libro Blanco de la CE no establece un plazo para la aplicación de la reglamentación, y las preguntas al respecto a la Comisión siguen sin respuesta.

En el documento se dice que los regímenes jurídicos o reglamentarios existentes abarcan muchos aspectos de la IA, aunque los relativos a la transparencia, la rastreabilidad y la supervisión humana no se contemplan específicamente en muchos sectores económicos, y deben abordarse en un marco reglamentario europeo.

En el documento se dice que ese marco reglamentario «debe garantizar unos resultados óptimos desde el punto de vista social, ambiental y económico, así como el cumplimiento de la legislación, los principios y los valores de la Unión Europea». Esto es particularmente relevante en áreas donde los derechos de los ciudadanos pueden verse afectados más directamente».

Una clara ambición, pero ya los estados miembros señalan la actual ausencia de un marco europeo común. La Comisión Alemana de Ética de los Datos ha pedido un sistema de regulación basado en cinco niveles de riesgo que iría desde la ausencia de regulación para los sistemas de IA más inocuos hasta la prohibición total para los más peligrosos. Dinamarca ha lanzado el prototipo de un Sello de Ética de Datos. Malta ha introducido un sistema de certificación voluntaria para la IA.

Si la Unión Europea no adopta un enfoque que abarque a toda la Unión Europea, existe un riesgo real de fragmentación que podría socavar los objetivos de confianza, certidumbre jurídica y absorción por el mercado.

El libro blanco fue objeto de examen por parte de la industria durante un período de consulta que recibió una respuesta positiva, en la que se señalaba principalmente la necesidad de que fuera más detallado y se ponían de relieve aspectos concretos del documento.

Recomendado:  Perspectivas del mercado global de inteligencia artificial (IA), 2026

El Instituto AI Now, un instituto de investigación de la Universidad de Nueva York dedicado a estudiar las implicaciones sociales de la IA y las tecnologías algorítmicas, respondió con 10 puntos de interés, la mayoría de los cuales se referían a un futuro marco normativo para la IA. Entre ellos se incluyen:

  • En lugar del enfoque basado en el riesgo propuesto por la Comisión, el alcance de la reglamentación debería determinarse sobre la base de la naturaleza y el impacto del sistema de IA.
  • Antes de desplegar un sistema de IA se deberían exigir evaluaciones de impacto algorítmico (AIA) para fundamentar cualquier decisión sobre si (y cómo) se utilizan esos sistemas.
  • La reglamentación debe garantizar que los investigadores y auditores externos tengan acceso a los sistemas de IA para comprender su funcionamiento.
  • Los encargados de la formulación de políticas deberían imponer moratorias a todos los usos del reconocimiento facial en ámbitos sociales y políticos delicados, como el uso de la fuerza pública, la educación y el empleo.

El punto de vista del profesional

Los conceptos de transparencia, confianza, explicabilidad, evaluación, derechos humanos, valores y, por supuesto, la prohibición de la tecnología de reconocimiento facial, que figuran en los documentos de los Estados Unidos y la Unión Europea, han sido acogidos con satisfacción por los profesionales de la IA, aunque subrayan la necesidad de seguir debatiendo antes de que se ultimen los reglamentos. La colaboración internacional también es fundamental.

Virginia Dignum, profesora de IA social y ética en la Universidad de Umeå, Suecia, estudia el impacto ético y social de la IA. Dice Dignum, «Estas son propuestas tempranas, una guía para la discusión que debe incluir más tecnólogos. Tenemos que mirar qué resultados nos resultan cómodos, qué no queremos y qué es factible». Aún no es el momento de poner líneas rojas o luces verdes».

Peter Bentley, profesor honorario del departamento de informática del University College London, y autor de 10 lecciones cortas de inteligencia artificial y robóticadice que la IA necesita ser regulada; «de lo contrario, podríamos arriesgar la democracia». En cuanto a cómo debe evolucionar la regulación, dice: «El papel de los buenos gobiernos es asumir la responsabilidad y comprender el efecto sobre la sociedad y la seguridad de las personas a medida que se desarrolla la tecnología». En el caso de la IA, no se ha escuchado lo suficiente a los expertos».

Sarah Underwood es un escritor de tecnología con sede en Teddington, Reino Unido.


No se han encontrado entradas