Saltar al contenido

Actualizaciones de la regulación de inteligencia artificial: China, UE y EE. UU.

3 de agosto de 2022

miércoles, 3 de agosto de 2022

Los sistemas de inteligencia artificial (IA) están preparados para alterar drásticamente la forma en que las empresas y los gobiernos operan a escala global, con cambios significativos que ya están en marcha. Esta tecnología se ha manifestado en múltiples formas, incluido el procesamiento del lenguaje natural, el aprendizaje automático y los sistemas autónomos, pero con las entradas adecuadas se puede aprovechar para hacer predicciones, recomendaciones e incluso decisiones.

En consecuencia, las empresas están adoptando cada vez más esta tecnología dinámica. Un estudio global de 2022 realizado por IBM descubrió que el 77 % de las empresas utilizan actualmente IA o exploran IA para uso futuro, creando valor al aumentar la productividad a través de la automatización, una mejor toma de decisiones y una mejor experiencia del cliente. Además, según un estudio de PwC de 2021, la pandemia de COVID-19 aumentó el ritmo de adopción de IA para el 52 % de las empresas, ya que buscaban mitigar el impacto de la crisis en la planificación de la fuerza laboral, la resiliencia de la cadena de suministro y la proyección de la demanda.

Desafíos de la regulación global

Para estas muchas empresas que invierten recursos significativos en IA, es fundamental comprender los marcos legales actuales y propuestos que regulan esta nueva tecnología. Específicamente para las empresas que operan a nivel mundial, la tarea de garantizar que su tecnología de IA cumpla con las regulaciones aplicables se complicará debido a las diferentes normas que están surgiendo en China, la Unión Europea (UE) y los EE. UU.


Recomendado: ¿Qué es el Big data?.


Porcelana

China ha tomado la iniciativa de llevar las regulaciones de IA más allá de la etapa de propuesta. En marzo de 2022, China aprobó una regulación que rige el uso de algoritmos por parte de las empresas en los sistemas de recomendación en línea, que exige que dichos servicios sean morales, éticos, responsables, transparentes y que «difundan energía positiva». La regulación exige que las empresas notifiquen a los usuarios cuando un algoritmo de IA está jugando un papel en la determinación de qué información mostrarles y les da a los usuarios la opción de optar por no ser objetivo. Además, la regulación prohíbe los algoritmos que utilizan datos personales para ofrecer precios diferentes a los consumidores. Esperamos que estos temas se manifiesten en las regulaciones de IA en todo el mundo a medida que se desarrollen.

unión Europea

Mientras tanto, en la UE, la Comisión Europea ha publicado una propuesta de marco regulatorio general titulada Ley de Inteligencia Artificial, que tendría un alcance mucho más amplio que la regulación promulgada por China. La propuesta se centra en los riesgos creados por la IA, con aplicaciones clasificadas en categorías de riesgo mínimo, riesgo limitado, alto riesgo o riesgo inaceptable. Según el nivel de riesgo designado de una aplicación, existirán las acciones u obligaciones gubernamentales correspondientes. Hasta ahora, las obligaciones propuestas se centran en mejorar la seguridad, la transparencia y la responsabilidad de las aplicaciones de IA mediante la supervisión humana y el monitoreo continuo. En concreto, se exigirá a las empresas que registren sistemas de IA autónomos de alto riesgo, como los sistemas de identificación biométrica remota, en una base de datos de la UE. Si se aprueba la regulación propuesta, la fecha más temprana para el cumplimiento sería la segunda mitad de 2024 con multas potenciales por incumplimiento que oscilan entre el 2% y el 6% de los ingresos anuales de una empresa.

Además, el Reglamento General de Protección de Datos (GDPR) de la UE promulgado anteriormente ya tiene implicaciones para la tecnología de IA. El artículo 22 prohíbe las decisiones basadas únicamente en procesos automatizados que produzcan consecuencias jurídicas o efectos similares para las personas, a menos que el programa obtenga el consentimiento explícito del usuario o cumpla otros requisitos.

Estados Unidos

En los Estados Unidos ha habido un enfoque fragmentado de la regulación de la IA hasta el momento, con estados que promulgan sus propias leyes de IA de retazos. Muchas de las regulaciones promulgadas se enfocan en establecer varias comisiones para determinar cómo las agencias estatales pueden utilizar la tecnología de IA y estudiar los impactos potenciales de la IA en la fuerza laboral y los consumidores. Las iniciativas estatales pendientes comunes van un paso más allá y regularían la responsabilidad y la transparencia de los sistemas de IA cuando procesan y toman decisiones basadas en datos del consumidor.

A nivel nacional, el Congreso de EE. UU. promulgó la Ley de Iniciativa Nacional de IA en enero de 2021, creando la Iniciativa Nacional de IA que proporciona “un marco general para fortalecer y coordinar las actividades de investigación, desarrollo, demostración y educación de IA en todos los departamentos y agencias de EE. UU. . . . .” La Ley creó nuevas oficinas y grupos de trabajo destinados a implementar una estrategia nacional de IA, implicando a una multitud de agencias administrativas de EE. UU., incluida la Comisión Federal de Comercio (FTC), el Departamento de Defensa, el Departamento de Agricultura, el Departamento de Educación y el Departamento de Salud y Servicios Humanos.

La legislación nacional pendiente incluye la Ley de responsabilidad algorítmica de 2022, que se presentó en ambas cámaras del Congreso en febrero de 2022. En respuesta a los informes de que los sistemas de inteligencia artificial pueden conducir a resultados sesgados y discriminatorios, la ley propuesta ordenaría a la FTC crear regulaciones que exijan “entidades cubiertas”, incluidas las empresas que cumplen ciertos criterios, para realizar evaluaciones de impacto cuando utilizan procesos automatizados de toma de decisiones. Esto incluiría específicamente los derivados de la IA o el aprendizaje automático.

La Comisión Federal de Comercio es proactiva

Si bien la FTC no ha promulgado regulaciones específicas de IA, esta tecnología está en el radar de la agencia. En abril de 2021, la FTC emitió un memorando que informaba a las empresas que el uso de IA que produce resultados discriminatorios equivale a una violación de la Sección 5 de la Ley de la FTC, que prohíbe las prácticas desleales o engañosas. Y es posible que la FTC pronto lleve esta advertencia un paso más allá: en junio de 2022, la agencia indicó que presentará un Aviso anticipado de elaboración de normas preliminares para «garantizar que la toma de decisiones algorítmica no resulte en una discriminación dañina» y el período de comentarios públicos finaliza en Agosto de 2022. La FTC también emitió recientemente un informe al Congreso sobre cómo se puede usar la IA para combatir los daños en línea, que van desde estafas, falsificaciones profundas y ventas de opioides, pero desaconsejó la dependencia excesiva de estas herramientas, citando la susceptibilidad de la tecnología para producir resultados inexactos, sesgados y discriminatorios.

Responsabilidad potencial para las empresas en los EE. UU.

Las empresas deben discernir cuidadosamente si otras regulaciones no específicas de IA podrían someterlas a una posible responsabilidad por el uso de la tecnología de IA. Por ejemplo, la Comisión de Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés) de EE. UU. presentó una guía en mayo de 2022 advirtiendo a las empresas que el uso de herramientas algorítmicas de toma de decisiones para evaluar a los solicitantes de empleo y empleados podría violar la Ley de Estadounidenses con Discapacidades, en parte, de manera intencional o no. descartar a las personas con discapacidad. Se puede encontrar un análisis más detallado de la guía de la EEOC aquí.

Impacto más amplio en las empresas estadounidenses

Muchas otras agencias y oficinas de EE. UU. están comenzando a profundizar en la refriega de la IA. En noviembre de 2021, la Oficina de Política Científica y Tecnológica de la Casa Blanca solicitó la participación de las partes interesadas de todas las industrias en un esfuerzo por desarrollar una «Declaración de derechos para una sociedad automatizada». Tal Declaración de derechos podría cubrir temas como el papel de AI en el sistema de justicia penal, la igualdad de oportunidades, los derechos del consumidor y el sistema de atención médica. Además, el Instituto Nacional de Estándares y Tecnología (NIST), que depende del Departamento de Comercio de EE. UU., está colaborando con las partes interesadas para desarrollar «un marco voluntario de gestión de riesgos para sistemas de IA confiables». El resultado de este proyecto puede ser análogo al marco regulatorio propuesto por la UE, pero en un formato voluntario.

¿Que sigue?

El tema general de las regulaciones de IA promulgadas y pendientes a nivel mundial es mantener la responsabilidad, la transparencia y la equidad de la IA. Para las empresas que aprovechan la tecnología de IA, garantizar que sus sistemas sigan cumpliendo con las diversas regulaciones destinadas a lograr estos objetivos podría ser difícil y costoso. Dos aspectos del proceso de toma de decisiones de AI hacen que la supervisión sea especialmente exigente:

  • Opacidad donde los usuarios pueden controlar las entradas de datos y ver las salidas, pero a menudo no pueden explicar cómo y con qué puntos de datos el sistema tomó una decisión.

  • Adaptación frecuente donde los procesos evolucionan con el tiempo a medida que el sistema aprende.

Por lo tanto, es importante que los reguladores eviten sobrecargar a las empresas para garantizar que las partes interesadas aún puedan aprovechar los grandes beneficios de las tecnologías de IA de manera rentable. EE. UU. tiene la oportunidad de observar los resultados de la acción regulatoria actual de China y la UE para determinar si sus enfoques logran un equilibrio favorable. Sin embargo, EE. UU. debería acelerar potencialmente la promulgación de leyes similares para que pueda desempeñar un papel en el establecimiento del tono global para los estándares regulatorios de IA.

Gracias a la coautora Lara Coole, asociada de verano en la oficina de Jacksonville de Foley & Lardner, por sus contribuciones a esta publicación.