El organismo de control de datos del Reino Unido investigará si los sistemas de inteligencia artificial muestran sesgos raciales cuando se trata de solicitudes de empleo.
La Oficina del Comisionado de Información dijo que la discriminación impulsada por IA podría tener “consecuencias dañinas para la vida de las personas” y llevar a que alguien sea rechazado para un trabajo o se le niegue injustamente un préstamo bancario o un beneficio social.
Investigará el uso de algoritmos para filtrar solicitudes de empleo, en medio de preocupaciones de que están afectando las oportunidades de empleo para personas de minorías étnicas.
“Investigaremos las preocupaciones sobre el uso de algoritmos para filtrar las solicitudes de contratación, lo que podría tener un impacto negativo en las oportunidades de empleo de personas de diversos orígenes”, dijo el ICO.
La investigación se anuncia como parte de un plan de tres años para la ICO bajo la dirección del nuevo comisionado de información del Reino Unido, John Edwards, quien se unió a la ICO en enero después de dirigir a su contraparte de Nueva Zelanda.
En un discurso el jueves, se espera que Edwards diga que la ICO «observará el impacto que podría tener el uso de la IA en grupos de personas que no forman parte de las pruebas de este software, como personas neurodiversas o personas de minorías étnicas». ”.
El CEO de ZipRecruiter, un sitio web de empleos, le dijo a The Guardian este año que al menos las tres cuartas partes de todos los CV presentados para trabajos en los EE. UU. son leídos por algoritmos. Una encuesta de ejecutivos de reclutamiento realizada por la firma de investigación y consultoría Gartner el año pasado encontró que casi todos informaron usar IA para parte del proceso de reclutamiento y contratación, por ejemplo, examinar las solicitudes antes de que una persona las vea.
Según el Reglamento General de Protección de Datos del Reino Unido, que aplica el ICO, las personas tienen derecho a la no discriminación en el procesamiento de sus datos. El ICO ha advertido en el pasado que los sistemas impulsados por IA podrían producir resultados que perjudican a ciertos grupos si no están representados de manera precisa o justa en el conjunto de datos en el que se entrena y prueba el algoritmo. La Ley de Igualdad del Reino Unido de 2010 también ofrece protección a las personas contra la discriminación, ya sea causada por un sistema de toma de decisiones humano o automatizado.
El Dr. David Leslie, director de ética e investigación de innovación responsable en el Instituto Alan Turing, dijo: “El uso de modelos de IA basados en datos en los procesos de contratación plantea una serie de cuestiones éticas espinosas, que exigen una evaluación previa y diligente por parte de ambos. diseñadores y compradores de sistemas.
“Básicamente, los modelos predictivos que podrían usarse para filtrar solicitudes de empleo a través de técnicas de aprendizaje automático supervisado corren el riesgo de replicar, o incluso aumentar, patrones de discriminación e inequidades estructurales que podrían integrarse en los conjuntos de datos utilizados para entrenarlos”.
En otra parte de su plan de tres años, el organismo de control del Reino Unido analizará si priorizar el interés público al considerar las quejas sobre las solicitudes de libertad de información. El ICO dijo que los cambios en el proceso de quejas para el régimen de FoI, que otorga a los miembros del público el derecho legal de solicitar información oficial de los organismos públicos, son necesarios debido al aumento de las quejas y a la escasez de recursos para tratarlas.
Edwards dijo que el sistema actual para tratar las quejas de FoI, por razones que incluyen respuestas tardías o divulgación de información incompleta, no estaba funcionando y consultaría sobre un nuevo régimen. El número de quejas llegó a 6361 en el año hasta el 30 de abril de 2022, lo que supuso un ligero descenso con respecto al año anterior, pero se compara con las 5433 de 2016/17.
“Quiero explorar si deberíamos poder elevar algunos casos o sacar algunos y decir: esto va por la vía rápida, porque es de interés público”, dijo Edwards.
Edwards dijo que la organización esperaba evitar las acusaciones de parcialidad en lo que priorizaba al publicar una lista de criterios para examinar las quejas.
Edwards dijo que la ICO consideraría priorizar las presentaciones de periodistas y parlamentarios, aunque también consideraría un sistema de «solicitante ciego» en el que se oculta la identidad de la persona u organización que realiza la presentación. La información en poder de las autoridades públicas escocesas está cubierta por el propio comisionado del país y la Ley de Libertad de Información.
“¿Deberíamos diferenciar entre quién hace la solicitud… y decir que un periodista está actuando en nombre del público en general para iluminar un tema en particular? Entonces, por lo tanto, obtienen puntos extra. Un miembro del parlamento, por ejemplo, tiene un papel muy particular en hacer que el ejecutivo y las autoridades públicas rindan cuentas, por lo que tal vez haya un caso para agregar peso adicional a esos [requests].”