Saltar al contenido

Google puede hacer preguntas sobre la ética de la IA, pero no quiere respuestas | Google

20 de marzo de 2021

ISi le dije que un artículo académico titulado «Sobre los peligros de los loros estocásticos» había provocado una disputa histórica que involucró a una de las empresas más poderosas del mundo, me habría preguntado qué había estado fumando. Y bien podrías: pero estad atentos.

El artículo tiene cuatro coautores, dos de la Universidad de Washington y dos de Google: el Dr. Timnit Gebru y la Dra. Margaret Mitchell. Proporciona una revisión crítica útil de los modelos de lenguaje de aprendizaje automático (LM) como GPT-3, que están entrenados en enormes cantidades de texto y son capaces de producir una prosa de apariencia plausible. La cantidad de cálculo (y las emisiones de carbono asociadas) involucradas en su construcción se ha disparado a niveles insanos, por lo que en algún momento es sensato hacer la pregunta que nunca se hace en la industria de la tecnología: ¿cuánto es suficiente?

Cuál es una de las preguntas que hicieron los autores del artículo. Al responderles, identificaron “una amplia variedad de costos y riesgos asociados con la prisa por LM cada vez más grandes, incluyendo: costos ambientales (soportados típicamente por aquellos que no se benefician de la tecnología resultante); los costes económicos, que a su vez erigen barreras de entrada, limitando quiénes pueden contribuir a esta área de investigación y qué idiomas pueden beneficiarse de las técnicas más avanzadas; costo de oportunidad, ya que los investigadores desvían sus esfuerzos de direcciones que requieren menos recursos; y el riesgo de daños sustanciales, incluidos los estereotipos, la denigración, el aumento de la ideología extremista y el arresto indebido ”.

Estos hallazgos proporcionan una contranarrativa útil a la actual prisa de Gadarene de la industria de la tecnología en el modelado del lenguaje. Sin embargo, existía una pequeña dificultad. En 2018, Google creó un modelo de lenguaje llamado Bert, que era tan poderoso que la compañía lo incorporó a su motor de búsqueda, su producto principal (y más lucrativo). En consecuencia, Google es muy sensible a las críticas de una tecnología tan clave. Y dos de los coautores del artículo de investigación eran empleados de Google.

Recomendado:  La startup tecnológica donde la mayoría de los empleados están en el espectro del autismo

Lo que sucedió a continuación fue predecible y burdo, y hay narrativas contradictorias al respecto. Gebru dice que fue despedida, mientras que Google dice que renunció. De cualquier manera, el resultado fue el mismo: en la legislación laboral inglesa se vería como un “despido constructivo”, en el que un empleado siente que no tiene más remedio que renunciar por algo que ha hecho su empleador. Pero sea cual sea la explicación, Gebru está descartado. Y también su coautor y colega, Mitchell, que había estado tratando de determinar los motivos de la oposición de Google al artículo de investigación.

Pero ahora viene la parte realmente absurda de la historia. Gebru y Mitchell eran miembros destacados de Google IA ética equipo. En otras palabras, al ser coautores del artículo, estaban haciendo su trabajo, que consiste en examinar críticamente las tecnologías de aprendizaje automático del tipo que ahora son fundamentales para el negocio de su empleador. Y aunque su tratamiento (y el posterior acoso en línea por parte de los trolls) ha sido traumático, al menos ha destacado hasta qué punto la reciente obsesión de la industria tecnológica con la «ética» es un fraude manipulador.

A medida que el frenesí de la industria por el aprendizaje automático se ha acelerado, también lo ha hecho la proliferación de juntas, paneles y órganos de supervisión de ética establecidos por las mismas empresas. Para crearlos, han contado con la ayuda de académicos emprendedores ansiosos por obtener una parte de la acción. En ese sentido, las consultorías lucrativas para asesorar sobre cuestiones éticas planteadas por el aprendizaje automático se han convertido en un vasto sistema de alivio para los filósofos y otros sabios que de otro modo serían desempleados. El resultado es una especie de teatro de la ética similar al teatro de seguridad que se realizaba en los aeropuertos en los años en que se permitía volar a la gente. Y la razón por la que continúa esta farsa es que las empresas de tecnología lo ven como un ataque preventivo para protegerse de lo que realmente temen: la regulación por ley.

Recomendado:  Una comprensión más profunda del aprendizaje profundo | junio 2022

La cuestión es que los sistemas actuales de aprendizaje automático tienen problemas éticos del mismo modo que las ratas tienen pulgas. Sus fallas intrínsecas incluyen prejuicios, injusticia, discriminación étnica y de género, enormes huellas ambientales, escasez teórica y una epistemología paralizada que equipara el volumen de datos con una mejor comprensión. Sin embargo, estas limitaciones no han impedido que las empresas tecnológicas adopten la tecnología al por mayor y, de hecho, en algunos casos (Google y Facebook, por nombrar solo dos) apostar por ella.

Dado eso, puede imaginar cómo responden los altos ejecutivos a los investigadores molestos que señalan las dificultades éticas implícitas en tales acuerdos fáusticos. Puede que no sea un gran consuelo para Gebru y Mitchell, pero al menos su experiencia traumática ya ha desencadenado iniciativas prometedoras. Uno es una campaña ruidosa de algunos de sus colegas de Google. Aún más prometedora es una campaña estudiantil, #recruitmenot, cuyo objetivo es persuadir a sus compañeros de estudios para que no se unan a empresas de tecnología. Después de todo, si no trabajarían para una empresa tabacalera o un fabricante de armas, ¿por qué trabajarían para Google o Facebook?

Lo que he estado leyendo

¿Evolución o revolución?
Hay una publicación reflexiva de Scott Alexander en su nuevo blog Astral Codex Ten sobre si el cambio radical es mejor que el desarrollo orgánico.

Extremismo en línea
Issie Lapowsky se pregunta por qué las empresas de redes sociales fueron mejores para derribar a Isis que para moderar a los terroristas nacionales en un interesante ensayo sobre el Protocolo.

La única certeza
Doc Searls ha escrito una meditación asombrosamente vívida en Medium sobre el impacto planetario de nuestra especie y por qué la muerte es una característica, no un error.

Recomendado:  Los robots pueden usarse para evaluar el bienestar mental de los niños