Saltar al contenido

La batalla del sesgo: cómo el software puede burlar los prejuicios de contratación | Trabajo y carreras

27 de diciembre de 2020

yoNo es de extrañar que hace décadas, era más probable que consiguiera un trabajo si se llamaba Smith en lugar de Singh, como descubrieron los activistas contra el racismo. En estos tiempos más ilustrados, las empresas tienen estrategias para vencer a una reacción instintiva ante un nombre desconocido, el género «equivocado» o el «presentimiento» sospechoso.

Sin embargo, las estadísticas de diversidad sugieren que estas estrategias aún no han demostrado ser efectivas en el sector tecnológico. Ciertamente, algo no ha ido bien: la tecnología sigue siendo notoriamente masculina, especialmente en los niveles superiores de la empresa. Las mujeres representan solo el 20% de los especialistas en TI y solo el 12% de los roles de liderazgo, según el último análisis del Chartered Institute for IT de la British Computer Society, y las cifras se han movido muy poco en los últimos cinco años.

“Los métodos actuales para contrarrestar los prejuicios, como las cuotas o la capacitación, son rudimentarios y tradicionales”, dice Riham Satti, un neurocientífico clínico convertido en emprendedor que creó tecnología para facilitar que las personas contraten personal de manera más justa, independientemente de su origen, género o etnia.

Hay más de 140 sesgos cognitivos, dice ella (uno de ellos es el sesgo inconsciente) y, aunque podemos ser conscientes de ellos, no podemos eliminarlos.

Desde el sesgo de confirmación (interpretar nueva información como una reivindicación de las creencias existentes) hasta el anclaje (basarse en la primera información que se encuentra al tomar decisiones), estos sesgos cognitivos tienen un impacto en cada elección que hacemos. Los reclutadores, por ejemplo, generalmente revisan los CV en segundos y necesitan tomar atajos mentales en medio de una abrumadora cantidad de detalles.

Para contrarrestar esto, ha habido un movimiento más amplio por parte de las empresas en los últimos años para contratar «ciegos»: evaluar las habilidades de un candidato de forma anónima.

Recomendado:  ¿Por qué he pasado todo este tiempo caminando normalmente, como un idiota? Qué pasó cuando probé Moonwalkers | vida y estilo

En lugar de una aplicación tradicional, algunas empresas, como la startup del sector público Public, invitan a los solicitantes a completar pruebas en línea, según un aspecto del trabajo anunciado, para determinar sus habilidades. «Así que no se puede saber de qué género son o de dónde son», dice Hanna Johnson, directora de operaciones de Public. Un puñado de miembros del personal califica cada respuesta, y estas calificaciones ayudan a construir una tabla de clasificación de candidatos para ser invitados a una entrevista. “No sabes su género, etnia, dónde viven o a qué universidad fueron”.

Durante tres años, su organización ha estado utilizando el software de contratación a ciegas Be Applied (también tiene intereses en él) y solo ha fracasado una vez. «Teníamos un candidato que respondió todas las preguntas de manera fantástica, pero vivía en el extranjero y no tenía ninguna experiencia previa». Su empresa ahora emplea a más mujeres que hombres, una rareza en el sector tecnológico.

Pero muchas empresas aún requieren una carta tradicional y un CV para sus procesos de contratación.

Es por eso que la tecnología de Satti se conecta a más de 15 tipos de software (sistemas de seguimiento de aplicaciones, también llamados ATS) que analizan CV. Usando tecnología de seguimiento ocular, pidió a los reclutadores que revisaran las aplicaciones durante 10 segundos. «Sabíamos dónde miraban y su actividad neuronal», explica. Y ahí es donde comienzan los problemas. Los reclutadores se centran en los nombres de los candidatos, dónde estudiaron, para quién han trabajado. «Pero estos no te dicen mucho sobre quiénes son o qué pueden hacer», dice. «Un nombre no es un indicador de talento».

Su empresa, MeVitae, ha creado tecnología que utiliza la lingüística computacional para detectar y eliminar una serie de detalles reveladores en un CV y ​​una carta de presentación, como escuela, universidad, discapacidad, género, etnia, estado civil, edad y pasatiempos, todo eso. que dice quién eres y de dónde eres. «Fui a sexto curso de niñas, por ejemplo», dice Satti. «Hay muchas cosas sutiles, además de tu nombre, que revelan más de lo que crees». También reconoce puntos en común entre diferentes roles – científico de datos e informático, por ejemplo, y compara cómo las habilidades se correlacionan entre los módulos de títulos universitarios, en lugar de depender de títulos de grado, que pueden ser confusos.

Recomendado:  Estimar la tasa de mortalidad es difícil pero se puede hacer con mejores datos

Además de acelerar el proceso, dice Satti, esta tecnología ha ayudado a cambiar el dial: la diversidad y la inclusión han mejorado en un 30% entre sus clientes, en su mayoría del Reino Unido y Estados Unidos, tanto en el sector público como en el comercial.

El próximo mes de marzo, la compañía, que ha recibido financiación de empresas como la Agencia Espacial Europea e Innovate UK, planea lanzar un algoritmo para ayudar a las empresas a elaborar listas detalladas de candidatos. Y el equipo detrás del algoritmo ha tenido cuidado de evitar construir tecnología que corra el riesgo de atrincherar las normas y prejuicios existentes.

En el pasado reciente, los algoritmos han mostrado sesgos: Amazon eliminó un algoritmo de reclutamiento de inteligencia artificial en 2018, que demostró estar sesgado contra las mujeres, y en 2019 Apple lanzó una tarjeta de crédito, proporcionada por Goldman Sachs, que parecía ofrecer a las mujeres menos crédito que a los hombres. Hay varios controles y equilibrios que pueden superar el sesgo potencial dentro de la IA durante su diseño, dice Satti, y estos incluyen, en parte, el uso de datos para entrenar a la IA sobre lo que debería ser, en lugar de lo que es. «Somos muy selectivos en los datos que utilizamos», dice. «Sabemos dónde se encuentran los prejuicios».

Las grandes organizaciones tecnológicas se están tomando el sesgo en serio: IBM está desarrollando una herramienta algorítmica de detección de sesgos que utiliza datos disponibles públicamente. Facebook está lanzando un equipo independiente que audita sus algoritmos para asegurarse de que no discriminen a los grupos étnicos minoritarios.

Recomendado:  Las 10 empresas de inteligencia artificial más prometedoras de 2022

Por supuesto, el reclutamiento sin prejuicios es solo una parte del rompecabezas de una mejor diversidad: más allá de contratar una fuerza laboral más mixta, las empresas deben trabajar más duro para aferrarse al personal, desarrollar sus carreras y hacer que los lugares de trabajo sean más agradables.

Y hay otros medios para atraer a más mujeres, sugiere Simon Lyle, director gerente del Reino Unido de la firma de recolocación Randstad RiseSmart. “Las organizaciones que buscan emplear a más mujeres en la tecnología harían bien en resaltar la seguridad laboral ahora”, dice. Pregunta si RR.HH. está perdiendo su toque humano: una investigación encargada por Randstad RiseSmart mostró que el 57% de los empleados cree que el reclutamiento se está volviendo demasiado automatizado. Los buenos solicitantes corren el riesgo de ser pasados ​​por alto si omiten palabras clave críticas durante el escaneo automático, advierte.

Satti, quien se describe a sí misma como una “casilla de verificación” a favor de la diversidad – “Soy BAME, una mujer, con una discapacidad” – es optimista de que la diversidad y la inclusión serán fundamentales para el crecimiento empresarial, y un proceso de contratación más justo es un vínculo fundamental .

“Estamos en camino de crear una sociedad más meritocrática. Más empresas están contratando jefes de diversidad e inclusión, pero necesitan un presupuesto y la voluntad desde arriba para impulsar ese cambio «.