Saltar al contenido

Es hora de evaluar las políticas nacionales de la IA | blog@CACM

16 de diciembre de 2020

El campo de la ética de la inteligencia artificial (IA) está en auge. Según el Consejo de Europa, hay ahora más de 300 iniciativas políticas de IA en todo el mundo. Las sociedades profesionales como la ACM y el IEEE han elaborado marcos, al igual que las empresas privadas y los gobiernos nacionales. Muchas de estas directrices establecen objetivos similares: políticas centradas en el ser humano, equidad, transparencia y responsabilidad. Pero se han hecho pocos esfuerzos para evaluar si los gobiernos nacionales han tomado medidas para aplicar las políticas de IA.

El Centro para la Inteligencia Artificial y la Política Digital ha emprendido el primer examen comparativo de las políticas nacionales de inteligencia artificial. Nuestro objetivo es comprender los compromisos que han asumido los gobiernos, las iniciativas de IA que han puesto en marcha y las políticas que han establecido para proteger los derechos fundamentales y salvaguardar al público. La construcción de la metodología para dicho estudio no es una tarea sencilla. Un país puede comprometerse a la «equidad» en la toma de decisiones sobre la IA, como muchos lo han hecho, pero determinar si están aplicando la práctica es una tarea mucho más difícil.

Comenzamos con marcos ampliamente reconocidos tanto para la IA como para los derechos humanos. ¿Por qué los derechos humanos? Suponemos que los gobiernos y las empresas tienen incentivos para hacer un seguimiento de las inversiones en investigación y los números de publicación. Ya hay muchos informes sobre estos temas. Queremos explorar temas de preocupación pública y derechos políticos. La Declaración Universal de Derechos Humanos, por ejemplo, ofrece la declaración más conocida (y ampliamente traducida) de los derechos fundamentales.

Recomendado:  Perspectivas del mercado global de inteligencia artificial (IA), 2026

Otro punto de partida serán los Principios de la IA de la OCDE/G20, el primer marco global para la política de IA. Más de 50 gobiernos nacionales han respaldado este marco, que incluye los conocidos objetivos de equidad, responsabilidad y transparencia. Pero el marco de la IA del G20 de la OCDE también está incompleto. Así pues, nos fijamos en otros marcos influyentes de la IA, como las Directrices Universales para la IA y el Contrato Social para la Era de la IA, para ver si los países están dispuestos a limitar las aplicaciones controvertidas o si persiguen objetivos políticos más amplios para la Era de la IA.

La propia OCDE ha descubierto recientemente que muchos países del G20 «se están moviendo rápidamente para construir ecosistemas de IA fiables», pero pocas políticas nacionales hacen hincapié en los principios de robustez, seguridad y responsabilidad. Así pues, nos remitimos a las recientes resoluciones de la Asamblea Mundial de la Privacidad, la principal asociación de expertos y funcionarios en materia de privacidad, sobre la IA y la rendición de cuentas para la medición de la responsabilidad.

También nos interesan las cuestiones de proceso, como por ejemplo, si los países han creado mecanismos de participación pública en la elaboración de políticas de IA, así como si los informes están a disposición del público. La transparencia es un objetivo clave no sólo para los algoritmos, sino también para la toma de decisiones.

En nuestro estudio inicial de los gobiernos, encontramos que algunos centralizan la elaboración de políticas de IA en un solo ministerio o agencia científica, mientras que otros tienen varias agencias con autoridad para la elaboración de políticas de IA. Es probable que el modelo de organismo único sea más eficiente, pero una estructura gubernamental que incluya, por ejemplo, un organismo de protección de datos o una comisión de derechos humanos, es probable que produzca una política nacional que refleje mejor las preocupaciones del público. Nuestra metodología favorece el segundo enfoque.

Recomendado:  Robo-pingüino: cómo las aves artificiales están transmitiendo los secretos de las corrientes oceánicas | Océanos

La «transparencia algorítmica» es un tema controvertido en el ámbito de la política de la IA. Algunos están a favor de la explicabilidad simple, argumentando que es esencialmente imposible probar los resultados en un entorno de aprendizaje automático. Otros dicen que las decisiones automatizadas, en particular las decisiones críticas como la contratación, el crédito y la justicia penal deben ser totalmente transparentes. Estamos examinando la forma en que los países están abordando este desafío. ¿Podría un tribunal basarse en una «caja negra» para una sentencia penal? Algunos países han dicho «no».

También queremos ver si los países están preparados para dibujar «líneas rojas» alrededor de ciertas aplicaciones de la IA. El reconocimiento facial, por ejemplo, es muy criticado por el sesgo en los conjuntos de datos y también plantea el peligro de la vigilancia masiva. Y algunos países han empezado a puntuar a sus ciudadanos para determinar su nivel de patriotismo, mientras que otros han asignado puntuaciones secretas de evaluación de riesgos a los viajeros. ¿Limitarán los países estas prácticas?

La política de la IA resuena en muchos ámbitos. No planeamos mirar el impacto de la IA en los mercados laborales, pero estamos interesados en los riesgos de los Sistemas de Armas Autónomas Letales. Varios países han propuesto un tratado internacional para prohibir estas armas impulsadas por la IA.

Anticipamos que el Índice de Contrato Social de la IA de 2020 proporcionará una base para el trabajo futuro. Tenemos previsto actualizar el informe anualmente para evaluar las tendencias generales, así como la convergencia y la divergencia entre las políticas nacionales. En una encuesta similar sobre las políticas globales de criptografía que emprendimos hace muchos años, encontramos que los gobiernos se están moviendo hacia más políticas de protección de la privacidad a medida que empiezan a reconocer la necesidad de una fuerte encriptación para proteger los datos personales y garantizar la seguridad de la red. En otro estudio comparativo, observamos la creciente divergencia entre los enfoques de los Estados Unidos y de la Unión Europea sobre la privacidad en línea durante los primeros días de la Internet comercial, aunque esa divergencia está disminuyendo ahora.

Recomendado:  Inteligencia Artificial (IA) en la industria del petróleo y el gas Cuotas de mercado, estrategias y previsiones a nivel mundial, 2020-2026

Es demasiado pronto para predecir el futuro de la política de la IA, pero es importante empezar ahora. La creación de un marco ético para la IA es una tarea importante, pero más importante será examinar el impacto de estos marcos en las prácticas reales. Y hay una verdadera urgencia en este trabajo. Si vamos a mantener políticas de IA centradas en el ser humano, necesitamos que los humanos evalúen realmente estas políticas.

Marc Rotenberg es el fundador del recientemente establecido Centro de Inteligencia Artificial y Política Digital en el Instituto Michael Dukakis. Es el editor del AI Policy Sourcebook y sirvió en el Grupo de Expertos de la OCDE en materia de inteligencia artificial.


No se han encontrado entradas