Saltar al contenido

La ley de la ciudad de Nueva York busca frenar el sesgo de la inteligencia artificial en la contratación | Seyfarth Shaw LLP

22 de diciembre de 2021

Sinopsis de Seyfarth: Una nueva ley en la ciudad de Nueva York restringe el uso de inteligencia artificial («IA») para seleccionar candidatos para empleo o promoción, y entrará en vigencia el 1 de enero de 2023. Aunque los empleadores tienen un año para prepararse, aquellos que pretenden confiar en AI durante el proceso de contratación después de enero de 2023 debe enviar sus herramientas de AI a una «auditoría de sesgo» ahora.

Las empresas que utilizan la inteligencia artificial como un componente de su proceso de contratación deben conocer una nueva ley en la ciudad de Nueva York que entrará en vigencia a principios de enero de 2023. Las herramientas de inteligencia artificial pueden aumentar la velocidad y la eficiencia de las revisiones de los candidatos. Sin embargo, la legislatura de la ciudad de Nueva York, animada por la preocupación de que el sesgo pueda estar incrustado en las herramientas de inteligencia artificial, ha regulado su uso.

El 10 de noviembre de 2021, el Consejo de la Ciudad de Nueva York aprobó un proyecto de ley para restringir el uso de «herramientas automatizadas de decisión de empleo» para seleccionar candidatos para empleo o promoción. En ausencia de la firma del alcalde Bill de Blasio, el proyecto de ley se convirtió en ley treinta días después, el 10 de diciembre de 2021. La ley entrará en vigor el 1 de enero de 2023.

La ley prohibirá a los empleadores o agencias de empleo de la Ciudad de Nueva York utilizar herramientas automatizadas de decisión de empleo que ayuden sustancialmente o reemplacen los procesos de toma de decisiones discrecionales para evaluar a los candidatos a un puesto, a menos que la herramienta se someta a una «auditoría de sesgo» dentro de un año antes de su uso. El término «herramientas de decisión de empleo automatizadas» se define para incluir cualquier proceso automatizado que utilice aprendizaje automático, modelado estadístico, análisis de datos o inteligencia artificial para calificar o clasificar a los solicitantes o tomar decisiones de empleo basadas en las credenciales del candidato. Además, una auditoría de sesgo debe consistir en una evaluación del potencial impacto dispar de la herramienta en las personas protegidas por un auditor imparcial. Sin embargo, la ley no establece quién se considerará un auditor independiente capaz de realizar una evaluación imparcial de la herramienta de inteligencia artificial. Los empleadores que tengan la intención de utilizar herramientas de inteligencia artificial en su proceso de contratación después del 1 de enero de 2023 deben someter esas herramientas a una auditoría de sesgo y hacer que los resultados estén disponibles para inspección pública en 2022.

Recomendado:  'Algunas personas se sienten amenazadas': cara a cara con Ai-Da, el artista robot | Cultura

Además, la legislación incluye estrictos requisitos de notificación. Cuando entre en vigencia, los empleadores que utilizan herramientas automatizadas de decisión de empleo deben notificar a todos los candidatos que residen dentro de la Ciudad que dichas herramientas se utilizarán para evaluar su candidatura. A la luz de este requisito, los empleadores deben ser conscientes de cómo obtener la información residencial de los candidatos, ya que el aviso se limita a aquellos que residen dentro de la Ciudad. Además, el aviso debe entregarse al menos diez días hábiles antes de que se utilice la herramienta de inteligencia artificial para garantizar que los candidatos tengan la oportunidad adecuada de «solicitar un proceso de selección alternativo o acomodación». Aunque la ley no incluye una lista de alternativas adecuadas, es lógico asumir que un proceso alternativo que no implique el uso de IA sería aceptable.

Además, en la medida en que no se divulgue de otra manera, la «información sobre el tipo de datos recopilados» para la herramienta, la fuente de datos y la política de retención de datos del empleador debe proporcionarse dentro de los 30 días de una solicitud por escrito de un empleado o candidato.

Además, la ley impone costosas sanciones para los empleadores que no cumplen. Los empleadores que violen cualquier disposición de la ley pueden enfrentar una multa de no más de $ 500 por la primera violación. Sin embargo, las infracciones posteriores pueden resultar en una multa de hasta $ 1,500. Las multas pueden acumularse rápidamente, ya que cada día que se usa la herramienta de inteligencia artificial en violación de la ley cuenta como una violación separada, y la ley no dice nada sobre la cantidad máxima de sanciones que se pueden imponer. Aunque el Asesor Jurídico de la Corporación de la Ciudad de Nueva York (o su designado) ha sido designado para hacer cumplir la nueva ley, y la ley no crea un derecho de acción privado independiente, la ley no limita que un empleado o candidato inicie una acción civil privada bajo un estatuto diferente.

Recomendado:  Investigadores reclutan enjambres de robots para extraer recursos lunares

De manera similar, preocupada por el uso de herramientas de inteligencia artificial en la contratación, la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. («EEOC») anunció una nueva iniciativa el 28 de octubre de 2021 para garantizar que el uso de inteligencia artificial cumpla con las leyes federales de no discriminación. La EEOC anunció que planea brindar una guía actualizada a los empleadores para que naveguen mejor en el uso de la IA en la contratación. Al momento de redactar esta alerta, la EEOC aún no lo ha hecho.

Seyfarth continuará monitoreando cualquier desarrollo con la inteligencia artificial de la Ciudad de Nueva York en las restricciones de contratación y la guía actualizada de la EEOC, y proporcionará actualizaciones cuando estén disponibles.