Google puede hacer preguntas sobre la ética de la IA, pero no quiere respuestas | Google
20 de marzo de 2021
ISi le dije que un artículo académico titulado «Sobre los peligros de los loros estocásticos» había provocado una disputa histórica que involucró a una de las empresas más poderosas del mundo, me habría preguntado qué había estado fumando. Y bien podrías: pero estad atentos.
El artículo tiene cuatro coautores, dos de la Universidad de Washington y dos de Google: el Dr. Timnit Gebru y la Dra. Margaret Mitchell. Proporciona una revisión crítica útil de los modelos de lenguaje de aprendizaje automático (LM) como GPT-3, que están entrenados en enormes cantidades de texto y son capaces de producir una prosa de apariencia plausible. La cantidad de cálculo (y las emisiones de carbono asociadas) involucradas en su construcción se ha disparado a niveles insanos, por lo que en algún momento es sensato hacer la pregunta que nunca se hace en la industria de la tecnología: ¿cuánto es suficiente?
Cuál es una de las preguntas que hicieron los autores del artículo. Al responderles, identificaron “una amplia variedad de costos y riesgos asociados con la prisa por LM cada vez más grandes, incluyendo: costos ambientales (soportados típicamente por aquellos que no se benefician de la tecnología resultante); los costes económicos, que a su vez erigen barreras de entrada, limitando quiénes pueden contribuir a esta área de investigación y qué idiomas pueden beneficiarse de las técnicas más avanzadas; costo de oportunidad, ya que los investigadores desvían sus esfuerzos de direcciones que requieren menos recursos; y el riesgo de daños sustanciales, incluidos los estereotipos, la denigración, el aumento de la ideología extremista y el arresto indebido ”.