Los modelos generativos como GPT-4, Midjourney y otros tienen a muchos comprensiblemente preocupados por el potencial de la tecnología para perturbar la sociedad, pero está saciando la sed aparentemente insaciable de AI que tiene la atención de los investigadores de la Universidad de California Riverside y la Universidad de Texas Arlington.
En un documento publicado [PDF] al público el mes pasado, los investigadores estimaron que entrenar un modelo de lenguaje grande a escala GPT-3 usaría aproximadamente 700,000 litros de agua, el equivalente a producir 320 vehículos eléctricos Tesla.
«ChatGPT necesita ‘beber’ una botella de agua de 500 ml para una conversación simple de aproximadamente 20 a 50 preguntas y respuestas, dependiendo de cuándo y dónde se implemente ChatGPT», escribieron los investigadores.
Y eso es con los modelos y la tecnología de hoy. Los investigadores anticipan que a medida que la IA se vuelve más frecuente, el consumo de agua se disparará, a menos que se tomen medidas para abordar la huella hídrica del centro de datos.
Esas son malas noticias, particularmente en los Estados Unidos. Los modelos climáticos desarrollados en los Laboratorios Nacionales Argonne del Departamento de Energía proyectan que a mediados de siglo, dentro de solo 27 años, gran parte del país estará en un estado de sequía persistente.
Consumo de agua de IA de disección
Como era de esperar, determinar el consumo de agua de algo tan complejo como un centro de datos de IA no es exactamente un proceso sencillo. Para comenzar, los investigadores necesitan conocer el uso de agua y la efectividad del uso de energía (WUE/PUE) de la instalación en cuestión, de dónde obtiene su energía, cómo enfría sus instalaciones, las condiciones climáticas, la hora del día, la cantidad de energía requerida para entrenar el modelo, y una serie de otras métricas. El problema: este no es exactamente el tipo de información a hiperescala y a los proveedores de la nube les gusta revelar.
«Estas empresas, por alguna razón, publican información muy aproximada sobre su uso de agua, ya sea la efectividad promedio del uso de agua o el consumo total real de agua, pero no ambos, y esos números generalmente se anualizan», Shaolei Ren, profesor asociado de electricidad y electricidad. ingeniería informática en UC Riverside y el investigador principal del artículo dijeron El registro.
Como resultado, los investigadores se vieron obligados a hacer una buena cantidad de suposiciones sobre la naturaleza de las instalaciones utilizadas para entrenar estos modelos.
A pesar de estas suposiciones, Ren afirma que su equipo pudo adaptar un modelo desarrollado por SPX Cooling Technologies para estimar la cantidad de agua utilizada por diferentes instalaciones en diferentes momentos, teniendo en cuenta también las condiciones climáticas, utilizando los mejores datos disponibles. Y a partir de esto, los investigadores dicen que pudieron calcular los requisitos de agua para varios modelos de IA, incluidos LaMDA de Google y GPT-3 de Open AI, con lo que los investigadores creen que es un grado razonable de precisión.
¿La IA tiene que tener tanta sed?
El documento pinta una imagen cruda sobre la sed de agua dulce de AI, sin embargo, el analista de Dell’Oro Group, Lucas Beran, enfatiza que no son los modelos los que usan el agua, son los sistemas de gestión térmica utilizados para mantenerlos frescos. «Este no es un problema de IA; es un problema de gestión térmica», dijo.
Según cómo y dónde se construya el centro de datos y si los servidores están refrigerados por aire o líquido, la cantidad de agua utilizada puede variar enormemente.
En el artículo, los investigadores se centraron en las torres de enfriamiento, una forma de enfriador evaporativo, porque son «la solución de enfriamiento más común para los centros de datos estilo almacén». A medida que el agua se evapora, extrae calor del aire. Este fenómeno hace que el enfriamiento por evaporación sea popular entre los operadores de centros de datos, ya que tiende a usar menos energía que la tecnología alternativa y, en muchos climas, solo necesitan funcionar durante los meses más calurosos del año.
Eso no quiere decir que el enfriamiento por evaporación sea la única opción. El mes pasado, Microsoft se comprometió a utilizar una infraestructura de enfriamiento de «agua cero» en dos centros de datos planificados en el campus de Goodyear, cerca de Phoenix, Arizona. Sin embargo, como informamos, si bien estas instalaciones pueden usar menos agua en el sitio, como resultado, pueden terminar usando más energía de la red.
Otra opción para reducir el consumo de agua en el sitio es adoptar una tecnología de enfriamiento más eficiente a nivel del sistema. Hoy en día, muchos nodos de GPU utilizados en el entrenamiento de IA pueden extraer más de 10 kW de la pared, superando los límites de un sistema refrigerado por aire.
«Invertir en IA lo empuja naturalmente hacia las tecnologías de gestión térmica de próxima generación, que se refieren en gran medida a la refrigeración líquida directa y la refrigeración por inmersión, para aprovechar al máximo el rendimiento de su hardware, además de hacerlo de la manera más económica», dijo Beran. .
Si bien puede sonar contradictorio, la tecnología de refrigeración líquida y por inmersión en realidad puede reducir la cantidad de agua utilizada por los centros de datos al eliminar el calor de manera más eficiente, explicó.
Como referencia, Submer y LiquidStack, dos proveedores de refrigeración por inmersión, a menudo promocionan índices de PUE inferiores a 1,05, lo que los hace mucho más eficientes que los centros de datos típicos refrigerados por aire, que suelen tener entre 1,4 y 1,5.
Cuándo y dónde importa
Además de diseñar los centros de datos de una manera que minimice su consumo de agua, el documento ofrece algunas recomendaciones para reducir el consumo de agua de IA.
El primero es bastante simple: no entrene modelos de IA en climas cálidos. Según los investigadores, entrenar GPT-3 en los centros de datos asiáticos necesitaría tres veces más agua que en los EE. UU. En cambio, los investigadores sugieren programar cargas de trabajo de entrenamiento de IA en instalaciones en climas más fríos, particularmente aquellos que pueden aprovechar el enfriamiento gratuito. O, para cargas de trabajo más pequeñas, los investigadores sugieren programar esas tareas para que se ejecuten durante la noche, cuando las temperaturas tienden a ser más bajas y se pierde menos agua por evaporación.
Los investigadores señalan los esfuerzos de Apple y Microsoft para utilizar la programación para reducir la huella de carbono de la carga y las actualizaciones de dispositivos como solo un ejemplo.
Sin embargo, el último punto es un poco paradójico, ya que las horas del día más eficientes para el consumo de agua también tienden a ser peores en términos de emisiones de carbono: no puede usar energía solar si el sol no brilla. Para evitar esto, Ren y su equipo sugieren aprovechar los sistemas de respaldo de batería del centro de datos para cambiar de manera efectiva la energía renovable de fuentes como la solar hasta las horas de la noche.
Esto también supone que el centro de datos tiene una batería de respaldo. Muchos centros de datos existentes dependen de generadores de celdas de combustible diesel o de gas natural.
La falta de transparencia está frenando la investigación
Para comprender mejor el impacto de la IA en el consumo de agua del centro de datos, se necesita más transparencia, señalan los investigadores.
«Es crucial tener una mejor visibilidad del tiempo de ejecución WUE y aumentar la transparencia al mantener informados a los desarrolladores del modelo de IA, así como a los usuarios finales», escribieron.
En este sentido, Ren y su equipo podrían estar de enhorabuena. Como informamos el mes pasado, la Comisión Europea se encuentra actualmente en el proceso de revisión de las revisiones de la Directiva de Eficiencia Energética, que, entre otras cosas, instituiría requisitos de informes para todos los centros de datos, excepto los más pequeños.
Si bien Beran sigue siendo cauteloso sobre el potencial de la regulación para inhibir a los operadores de centros de datos, está de acuerdo en que una mayor transparencia es esencial para optimizar estas instalaciones, y un requisito de informes al menos nivelaría el campo de juego.
«La industria de los centros de datos es tan reservada que a veces es difícil obtener los datos apropiados para construir modelos como este», dijo. «Me gustaría ver que los grandes hiperescaladores de nube y colocación lideren el camino sin necesidad de ser regulados. Pero siento que se están quedando sin tiempo para hacerlo ellos mismos antes de que tenga que haber una regulación». ®