En lo que va de 2023, la inteligencia artificial (IA) ha estado a la vanguardia de la revolución tecnológica, ya que las aplicaciones potenciales para herramientas como ChatGPT han generado un gran revuelo. En abril de 2023, informamos sobre La primera ordenanza de la ciudad de Nueva York que impone requisitos de notificación y auditoría sobre el uso de herramientas de inteligencia artificial por parte de los empleadores. Más recientemente, la Comisión de Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés) emitió dos documentos de orientación que abordan la IA en el contexto de recursos humanos, abordando específicamente los problemas de impacto adverso y adaptaciones para discapacitados.
Los empleadores utilizan cada vez más herramientas de inteligencia artificial y aprendizaje automático (ML) para ayudar a optimizar las decisiones de empleo, como contratación, promociones y despidos. Algunos ejemplos de estas herramientas identificadas en la guía de la EEOC incluyen escáneres de currículum para identificar candidatos prometedores, software de monitoreo de empleados que califica a los empleados en función de métricas de productividad, asistentes virtuales o chatbots que preguntan a los solicitantes sobre sus calificaciones, software de entrevistas en video que evalúa expresiones faciales y patrones de habla. y software de prueba que proporciona puntajes de ajuste cultural o laboral. En general, una herramienta AI/ML es aquella que se basa total o parcialmente en un análisis computarizado de datos para tomar decisiones de empleo. Sin embargo, como ocurre con muchas tecnologías nuevas, en algunos casos, el avance tecnológico puede poner en peligro el cumplimiento legal. Los empleadores deberán considerar las implicaciones de estas herramientas según las leyes nuevas (como la de la ciudad de Nueva York) y las leyes más antiguas, como las administradas por la EEOC.
EEOC primer documento de orientación evaluó la obligación del empleador de garantizar que las herramientas de IA/ML utilizadas en los procedimientos de selección de empleo no afecten negativamente a las clases protegidas en virtud del Título VII (p.ej, género, raza). Una herramienta de IA/ML que tiene un impacto desproporcionado «sustancial» en una clase protegida puede ser discriminatoria si no está relacionada con el trabajo y es coherente con la necesidad comercial o si hay alternativas más favorables disponibles. Puede ocurrir un impacto adverso si una herramienta otorga calificaciones más altas o es más probable que seleccione o rechace miembros de una cierta clase protegida en comparación con otras clases protegidas. Algunos puntos importantes de la guía de la EEOC sobre el impacto adverso:
-
Los empleadores pueden ser responsables del efecto del software de terceros. La guía de la EEOC indica que la agencia buscará responsabilizar a los empleadores por el impacto adverso, incluso si la herramienta AI/ML en cuestión es un software de terceros que el empleador no desarrolló. La guía establece que esta responsabilidad puede surgir de la propia administración del software por parte del empleador o de la administración de un proveedor como agente del empleador.
-
Los empleadores confían en las garantías de los proveedores bajo su propio riesgo. Aunque la EEOC alienta a los empleadores a «como mínimo» preguntar a sus proveedores de software de IA/ML sobre las medidas adoptadas para evaluar el impacto adverso, la posición de la EEOC es que confiar en las garantías del proveedor no es necesariamente un escudo de responsabilidad. Los empleadores aún enfrentan responsabilidad “si el proveedor está equivocado sobre su propia evaluación”.
-
Se recomiendan las auto-auditorías. Dada la incapacidad de confiar en las garantías de un proveedor, lo mejor para los empleadores es auditar periódicamente cómo las herramientas de IA/ML que utilizan impactan en diferentes grupos. Para realizar una auditoría de este tipo, los empleadores necesitan acceso a los datos subyacentes de la herramienta AI/ML, que se garantiza mejor en el momento en que se implementa la herramienta.
EEOC segundo documento de orientación abordó el impacto de las herramientas AI/ML en las personas con discapacidades en virtud de la Ley de Estadounidenses con Discapacidades (ADA). La guía de la ADA deja en claro que este es un análisis completamente diferente al análisis de impacto adverso del Título VII descrito anteriormente. Además, debido a la naturaleza individualizada del impacto de las discapacidades y el análisis de adaptaciones razonables de la ADA, la validación de una herramienta AI/ML o un hallazgo estadístico de que la herramienta no afecta negativamente a las personas con discapacidades en general, no son suficientes para garantizar el cumplimiento de la ADA. . En cambio, la EEOC anticipa un proceso más individualizado en el que el empleador evalúa si las limitaciones de la condición de un empleado o solicitante en particular harían que el empleado o solicitante sea «excluido» o calificado injustamente por la herramienta AI/ML. La guía de la EEOC prevé que los empleadores, como mejor práctica, proporcionen un aviso relativamente detallado sobre el funcionamiento de las herramientas de IA/ML y la disponibilidad de procesos alternativos para que se produzca el proceso de adaptación.
AI/ML ofrece el potencial de transformar el lugar de trabajo, entre otros procesos comerciales, al permitir que los empleadores clasifiquen grandes cantidades de datos y obtengan rápidamente información procesable. Sin embargo, la EEOC y jurisdicciones como la ciudad de Nueva York han identificado la posibilidad de que se incorporen sesgos discriminatorios en los algoritmos de IA/ML, o que estos algoritmos pongan en desventaja a las personas con discapacidades. Para evitar entrar en conflicto con las nuevas leyes diseñadas para abordar AI/ML, y leyes existentes como el Título VII y ADA que entraron en vigencia hace décadas pero que, sin embargo, rigen el uso de AI/ML, los empleadores deben revisar cuidadosamente sus procesos para usar estas herramientas en el Recursos humanos y contexto de reclutamiento.