Saltar al contenido

Para una IA verdaderamente ética, su investigación debe ser independiente de la gran tecnología | Timnit Gebru

25 de diciembre de 2021

Hace un año me enteré, por uno de mis subordinados directos, que aparentemente había renunciado. Me acababan de despedir de Google de una de las formas más irrespetuosas que podía imaginar.

Gracias a la organización realizada por antiguos y actuales empleados de Google y muchos otros, Google no logró manchar mi trabajo o reputación, aunque lo intentaron. Mi despido llegó a los titulares debido a la organización de trabajadores que se ha ido acumulando en el mundo de la tecnología, a menudo debido al trabajo de personas que ya están marginadas, muchos de cuyos nombres no conocemos. Desde que me despidieron en diciembre pasado, ha habido muchos avances en la organización y denuncia de irregularidades de los trabajadores tecnológicos. El más publicitado de ellos fue el testimonio de Frances Haugen en el Congreso; Haugen, haciéndose eco de lo que Sophie Zhang, una científica de datos despedida de Facebook, había dicho anteriormente, argumentó que la compañía prioriza el crecimiento sobre todo lo demás, incluso cuando conoce las consecuencias mortales de hacerlo.

He visto esto suceder de primera mano. El 3 de noviembre de 2020, estalló una guerra en Etiopía, el país en el que nací y crecí. Los efectos inmediatos de la desinformación descontrolada, el discurso de odio y los «hechos alternativos» en las redes sociales han sido devastadores. El 30 de octubre de este año, muchos otros y yo informamos claro llamado genocida en amárico a Facebook. La compañía respondió diciendo que la publicación no violó sus políticas. Solo después de que muchos reporteros le preguntaran a la compañía por qué este claro llamado al genocidio no violaba las políticas de Facebook, y solo después de que la publicación ya había sido compartida, gustada y comentada por muchos, la compañía la eliminó.

Otras plataformas como YouTube no han recibido el escrutinio que ameritan, a pesar de estudios y artículos que muestran ejemplos de cómo son utilizadas por varios grupos, incluidos los regímenes, para acosar a los ciudadanos. Twitter y especialmente TikTok, Telegram y Clubhouse tienen los mismos problemas pero se discuten mucho menos. Cuando escribí un artículo en el que describía los daños que plantean los modelos entrenados con datos de estas plataformas, Google me despidió.


Recomendado: ¿Qué es el Big data?.


Cuando la gente pregunta qué regulaciones deben existir para protegernos de los usos inseguros de la IA que hemos estado viendo, siempre comienzo con protecciones laborales y medidas antimonopolio. Puedo decir que algunas personas encuentran esa respuesta decepcionante, tal vez porque esperan que mencione regulaciones específicas de la tecnología en sí. Si bien esos son importantes, lo número uno que nos protegería de los usos inseguros de la IA es frenar el poder de las empresas que la desarrollan y aumentar el poder de aquellos que hablan en contra de los daños de la IA y las prácticas de estas empresas. Gracias al arduo trabajo de Ifeoma Ozoma y sus colaboradores, California aprobó recientemente la Ley No Más Silenciosos, que hace que sea ilegal silenciar a los trabajadores para que no hablen sobre el racismo, el acoso y otras formas de abuso en el lugar de trabajo. Esto debe ser universal. Además, necesitamos un castigo mucho más fuerte para las empresas que violan las leyes ya existentes, como la agresiva represión sindical de Amazon. Cuando los trabajadores tienen poder, crea una capa de controles y equilibrios sobre los multimillonarios tecnológicos cuyas decisiones impulsadas por caprichos afectan cada vez más al mundo entero.

También veo este monopolio fuera de la gran tecnología. Recientemente, lancé un instituto de investigación de IA que espera operar con incentivos diferentes a los de las grandes empresas de tecnología y las instituciones académicas de élite que las alimentan. Durante este esfuerzo, noté que los mismos grandes líderes tecnológicos que expulsan a personas como yo también son los líderes que controlan la gran filantropía y la agenda del gobierno para el futuro de la investigación de la IA. Si hablo y me enfrento a un donante potencial, no es solo mi trabajo el que está en juego, sino los trabajos de los demás en el instituto. Y aunque hay algunas leyes, aunque inadecuadas, que intentan proteger la organización de los trabajadores, no existe tal cosa en el mundo de la recaudación de fondos.

Entonces, ¿cuál es el camino a seguir? Para tener realmente controles y contrapesos, no deberíamos tener a las mismas personas estableciendo las agendas de las grandes tecnologías, la investigación, el gobierno y el sector sin fines de lucro. Necesitamos alternativas. Necesitamos que los gobiernos de todo el mundo inviertan en comunidades que creen tecnología que realmente los beneficie, en lugar de seguir una agenda establecida por las grandes tecnologías o las fuerzas armadas. Contrariamente a la retórica al estilo de la guerra fría de los grandes ejecutivos de tecnología sobre una carrera armamentista, lo que realmente ahoga la innovación es el acuerdo actual en el que unas pocas personas construyen tecnología dañina y otras trabajan constantemente para prevenir daños, sin poder encontrar el tiempo, el espacio o los recursos para implementar. su propia visión del futuro.

Necesitamos una fuente independiente de financiación gubernamental para nutrir a los institutos de investigación de IA independientes que puedan ser alternativas al poder enormemente concentrado de unas pocas grandes empresas de tecnología y las universidades de élite estrechamente entrelazadas con ellas. Solo cuando cambiemos la estructura de incentivos veremos tecnología que priorice el bienestar de los ciudadanos, en lugar de una carrera continua para descubrir cómo matar a más personas de manera más eficiente o hacer la mayor cantidad de dinero para un puñado de corporaciones en todo el mundo.