La inteligencia artificial (IA) se ha convertido en el nuevo juguete brillante de la industria tecnológica, con expectativas de que revolucionará las industrias de billones de dólares, desde el comercio minorista hasta la medicina. Pero la creación de cada nuevo chatbot y generador de imágenes requiere mucha electricidad, lo que significa que la tecnología puede ser responsable de una gran cantidad de emisiones de carbono que calientan el planeta.
Microsoft, Google de Alphabet y el fabricante de ChatGPT, OpenAI, usan computación en la nube que se basa en miles de chips dentro de servidores en centros de datos masivos en todo el mundo para entrenar algoritmos de IA llamados modelos, analizando datos para ayudarlos a «aprender» a realizar tareas.
La IA usa más energía que otras formas de computación, y entrenar un solo modelo puede consumir más electricidad que la que usan 100 hogares estadounidenses en todo un año. Las emisiones también podrían variar ampliamente según el tipo de centrales eléctricas que proporcionen esa electricidad; un centro de datos que extrae su electricidad de una planta alimentada con carbón o gas natural será responsable de emisiones mucho más altas que uno que extrae energía de parques solares o eólicos.
Si bien los investigadores han contado las emisiones de la creación de un solo modelo, y algunas empresas han proporcionado datos sobre su uso de energía, no tienen una estimación general de la cantidad total de energía que utiliza la tecnología. Sasha Luccioni, investigadora de la empresa de IA Hugging Face, escribió un artículo en el que cuantifica el impacto de carbono de Bloom de su empresa, un competidor de GPT-3 de OpenAI. También ha intentado estimar lo mismo para el éxito viral ChatGPT de OpenAI, basándose en un conjunto limitado de datos disponibles públicamente.
Mayor transparencia
Investigadores como Luccioni dicen que necesitamos transparencia sobre el uso de energía y las emisiones para los modelos de IA. Una mayor transparencia también podría traer más escrutinio; la industria de la criptografía podría proporcionar una historia de advertencia.
El entrenamiento de GPT-3, que es un único programa de inteligencia artificial de propósito general que puede generar lenguaje y tiene muchos usos diferentes, tomó 1.287 gigavatios hora, según un artículo de investigación publicado en 2021, o casi tanta electricidad como consumirían 120 hogares estadounidenses en un año. Ese entrenamiento generó 502 toneladas de emisiones de carbono, según el mismo diario. Eso es para un solo programa o modelo.
Si bien entrenar un modelo tiene un enorme costo inicial de energía, los investigadores descubrieron que en algunos casos es solo alrededor del 40 por ciento de la energía quemada por el uso real del modelo, con miles de millones de solicitudes de programas populares. El GPT-3 de OpenAI utiliza 175 mil millones de parámetros o variables que el sistema de IA ha aprendido a través de su entrenamiento y reentrenamiento. Su predecesor usó solo 1.500 millones.
Otra medida relativa proviene de Google, donde los investigadores encontraron que la IA constituía del 10 al 15 por ciento del consumo total de electricidad de la empresa, que fue de 18,3 teravatios hora en 2021. Eso significaría que la IA de Google quema alrededor de 2,3 teravatios hora al año.
Compromisos netos cero
Si bien los modelos son cada vez más grandes en muchos casos, las empresas de IA también trabajan constantemente en mejoras que los hagan funcionar de manera más eficiente. Microsoft, Google y Amazon: todos tienen compromisos de carbono negativo o neutral. Google dijo en un comunicado que está buscando emisiones netas cero en todas sus operaciones para 2030, con el objetivo de operar su oficina y centros de datos completamente con energía libre de carbono.
OpenAI citó el trabajo que ha realizado para hacer que la interfaz de programación de aplicaciones para ChatGPT sea más eficiente, reduciendo el uso de electricidad y los precios para los clientes. “Nos tomamos muy en serio nuestra responsabilidad de detener y revertir el cambio climático, y pensamos mucho en cómo hacer el mejor uso de nuestra potencia informática”, dijo un portavoz de OpenAI en un comunicado.
Microsoft señaló que está comprando energía renovable y tomando otras medidas para cumplir con su objetivo previamente anunciado de ser carbono negativo para 2030. “Como parte de nuestro compromiso de crear un futuro más sostenible, Microsoft está invirtiendo en investigación para medir el uso de energía y el impacto del carbono. de IA mientras trabaja en formas de hacer que los sistemas grandes sean más eficientes, tanto en capacitación como en aplicación”, dijo la compañía en un comunicado.
Hay formas de hacer que la IA funcione de manera más eficiente. Dado que la capacitación de IA puede realizarse en cualquier momento, los desarrolladores o los centros de datos podrían programar la capacitación para momentos en que la energía sea más barata o haya un excedente, lo que hace que sus operaciones sean más ecológicas, dijo Ben Hertz-Shargel de la consultora de energía Wood Mackenzie.
Uno de los mayores misterios de la IA es la contabilización total de las emisiones de carbono asociadas con los chips que se utilizan. Nvidia, el mayor fabricante de unidades de procesamiento de gráficos, dijo que cuando se trata de tareas de IA, pueden completar la tarea más rápidamente, haciéndolas más eficientes en general.
Si bien Nvidia ha revelado sus emisiones directas e indirectas relacionadas con la energía, no ha revelado todas las emisiones a las que responde indirectamente, dijo Luccioni, quien solicitó esos datos para su investigación.
Cuando Nvidia comparta esa información, Luccioni cree que las GPU consumirán tanta energía como un país pequeño. Ella dijo: «Van a ser plátanos».
Lea también: ADNOC de Abu Dhabi comienza a trabajar en un nuevo proyecto de captura y almacenamiento de carbono