Saltar al contenido

Un investigador de la UF describe el sesgo en la inteligencia artificial y presiona por la ‘justicia algorítmica’

31 de diciembre de 2022

La inteligencia artificial impulsa las herramientas que se usan todos los días: Siri, Amazon Alexa, desbloquear iPhones con reconocimiento facial. Pero estas herramientas sirven a algunas personas mejor que a otras.

Tina Tallon es profesora asistente de inteligencia artificial en las artes en la Escuela de Música de la Universidad de Florida. Ella estudia lo que se llama justicia algorítmica: cómo los sesgos lingüísticos, raciales y de género se integran en estas tecnologías y cómo solucionarlos.

Katie Hyson, miembro del WUFT Report for America Corps, se sentó con Tallon para hablar sobre lo que eso significa y por qué es importante.

Esta entrevista ha sido editada y resumida para mayor claridad. Escuche arriba o lea una versión un poco más larga a continuación.

TALÓN: Así que estoy muy interesado en todas las herramientas de IA que se usan en la vida cotidiana; es decir, entramos en contacto con ellas cada vez que abrimos nuestros teléfonos, y los diversos tipos de sesgos que están arraigados en las herramientas. la gente está usando.

HYSON: ¿Puedes hablar sobre cuáles son algunos de esos sesgos?

TALÓN: La mayoría del conjunto de datos está en inglés. Entonces, ya tiene un sesgo hacia los angloparlantes, correcto, donde las personas que pueden hablar otros idiomas no están representadas en esos conjuntos de datos.

Y luego, por supuesto, cuando se trata de visión por computadora, hay una cantidad increíble de prejuicios raciales. Históricamente, la película y varios sensores fotográficos en las cámaras, desafortunadamente, no mostraban la piel más oscura ni la piel más clara.

También tenemos sesgos de género con respecto a la tecnología de audio, los micrófonos que estamos usando en este momento, ¿no?

Soy cantante. Y mientras trabajaba con muchos micrófonos y otros tipos de tecnología de voz, me di cuenta de que no me funcionaban tan bien como a algunos de mis colegas.

Recomendado:  Primero, hubo recompensas por errores. ahora, aquí vienen las recompensas de Bias | Noticias

Hay sesgos inherentes a algunos de los circuitos y esos diseños se remontan a finales del siglo XIX y principios del XX.

HYSON: Entonces, para alguien que no está en IA, no en el campo de la ciencia, que tal vez ni siquiera sepa que muchas de las herramientas que usa durante el día son inteligencia artificial, ¿cuál sería un ejemplo del día a día de cómo alguien podría interactuar con esto? herramienta y puede que no les esté sirviendo tan bien como a otra persona?

TALÓN: Un gran ejemplo de esto es la contratación. Muchas personas no son conscientes del hecho de que gran parte de la primera ronda de selección de CV y ​​currículos en realidad utiliza muchas herramientas de IA. Y así, la IA está entrenada en varios tipos de palabras para buscar y otros tipos de conjuntos de datos que podrían favorecer desproporcionadamente a alguien de un entorno específico sobre otra persona.

Otro ejemplo: muchos exámenes de inmigración en realidad requieren algún tipo de dominio del idioma. Hubo un caso en Australia en el que un hablante nativo de inglés de Irlanda o Escocia había venido y tomado una [AI] Prueba de dominio del idioma inglés para su visa en Australia. Y decía que su dominio del idioma no estaba a la altura. Y reprobó el examen a pesar de que es hablante nativa de inglés.

Creo que nos debemos a nosotros mismos y a todos los que nos rodean cuestionar cuáles son las estructuras subyacentes que conducen a estas experiencias emergentes y que tenemos en la vida cotidiana.

Cada vez que desbloqueas tu teléfono o intentas usar Siri o Alexa, todas esas cosas funcionan con inteligencia artificial. Y cada vez que interactuamos con ellos, cierta cantidad de datos va a esas empresas para reforzar el aprendizaje en estos conjuntos de datos.

Recomendado:  El organismo de control de datos del Reino Unido investiga si los sistemas de inteligencia artificial muestran sesgos raciales | Inteligencia artificial (IA)

HYSON: ¿Se está realizando ya algún trabajo significativo para abordar estos problemas? ¿Y cuáles son algunas posibles soluciones?

TALÓN: En este momento, la justicia algorítmica y la rendición de cuentas son un tema candente de conversación. Y mucha gente le está prestando atención.

Sin embargo, vemos grandes empresas de tecnología como Twitter y Google que en realidad han despedido a sus equipos responsables de responsabilizar a los demás miembros de sus empresas o de realizar investigaciones que respalden este trabajo de justicia. Entonces es difícil porque creo que estábamos progresando mucho, pero todo es muy voluble y solo depende de quién esté en el poder.

Al final del día, creo que gran parte se reduce a una educación más amplia y al público que exige responsabilidad por parte de estas empresas.

Una de las cosas que he presionado es algo así como una especie de FDA algorítmica, ¿verdad? Con nuestra propia FDA, cualquier intervención médica, ya sea un dispositivo terapéutico o un fármaco, debe ser examinada por la FDA antes de lanzarla al mercado.

Y creo que lo mismo debe suceder con las herramientas algorítmicas. Necesitamos tener a alguien que pase y diga: “Muy bien, ¿cuál será el impacto de esta herramienta en la sociedad? ¿Ha demostrado que tomó las medidas necesarias para examinar adecuadamente su herramienta algorítmica en busca de varios tipos de sesgo?

HYSON: ¿Puede explicar con palabras por qué es importante que estos algoritmos y estas tecnologías funcionen por igual para todos?

TALÓN: Desafortunadamente, la IA está reforzando muchos de los sesgos que ya existen. Y ya está reforzando los sistemas de discriminación que vemos que impactan negativamente en varias comunidades alrededor del mundo.

Recomendado:  Modelo muestra cómo un comportamiento similar al inteligente puede surgir de agentes no vivos

Los datos son un reflejo de los valores de una sociedad. Y creo que, lamentablemente, la tecnología que ha recopilado los datos también es un reflejo de los valores de una sociedad. Y, lamentablemente, lo que hemos visto una y otra vez es que los valores que se reflejan en este momento son los del prejuicio y la discriminación.

Por lo tanto, debemos tener mucho cuidado, porque una vez que se arraiga una pieza específica de tecnología o idea, se construyen tantas cosas sobre ella que es imposible cambiarla.

Si no actuamos ahora, para contrarrestar esos diversos tipos de sesgo [in AI] se arraigarán. Y eso es aún más peligroso, porque las tecnologías que tendremos en el futuro se basarán en eso. Y entonces tenemos que detener ese ciclo en alguna parte. Y creo que ahora es un buen momento para hacerlo.

HYSON: ¿Hay algo más que quieras que la gente entienda?

TALÓN: Hay muchos usos excelentes para la IA. Hay muchas formas asombrosas en las que la IA puede crear herramientas de acceso. Hay muchas maneras en las que podemos usar la IA para mejorar los resultados de salud. Hay muchas maneras en las que podríamos usar la IA para mitigar los impactos del cambio climático.

Así que no todo es pesimismo.

Sin embargo, debemos ser muy críticos con estas tecnologías. La alfabetización algorítmica es realmente importante. Necesitamos que todos se involucren.

Y debemos asegurarnos de que todos entiendan lo que está en juego y cómo pueden desempeñar un papel al tratar de usar estas herramientas para crear un futuro mejor.