Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Estados Unidos mantendrá TLC pese a ola proteccionista, dice Brian Nichols
EP 1749 • 12:17
El Club de la Green Card
¿Quiénes pueden recibir la pensión de un familiar fallecido en EE.UU.?
EP 124 • 01:30
RPP Data
¿Qué hacer para que Lima Metropolitana no siga creciendo de forma desordenada?
EP 237 • 02:58

Casi 2 mil piscinas olímpicas: la cantidad de agua que Microsoft usa para investigaciones sobre IA

A mayor actividad en los servidores, es necesario un mayor consumo de agua para el enfriamiento de los sistemas.
A mayor actividad en los servidores, es necesario un mayor consumo de agua para el enfriamiento de los sistemas. | Fuente: Foto de Sime Basioli en Unsplash

Se estima que ChatGPT, inteligencia artificial de OpenAI a la que Microsoft está apoyando con millones de dólares, consume 500 mililitros de agua por 50 preguntas realizadas.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

El desarrollo de la inteligencia artificial mantiene múltiples consecuencias y efectos en la sociedad, incluso en el cuidado del medio ambiente. Y eso se ve reflejado en documentos como los mostrados por Microsoft, empresa que asegura haber consumido un 34 % más de agua en este campo a nivel mundial.

De acuerdo con su último informe de sostenibilidad, la empresa consumió 4.772.890 metros cúbicos de agua. En 2022, esa cifra ascendió a 6.399.415. Eso son casi 1.7 millones de galones de agua en solo un año, lo que es suficiente para llenar más de 2000 piscinas de tamaño olímpico.

Te recomendamos

¿A dónde se va todo el agua?

Si bien Microsoft no especifica la adopción de la inteligencia artificial como la causa formal de este aumento, sí sabemos que el proveedor de la nube ha estado implementando decenas de miles de tarjetas gráficas (GPU) para impulsar los grandes modelos de lenguaje detrás de Bing Chat y GitHub Copilot, entre otros.

La megacorporación también está trabajando estrechamente con OpenAI, el desarrollador detrás de los grandes modelos de lenguaje (LLM) utilizados en ChatGPT.

Las GPU utilizadas para alimentar estos modelos generalmente se implementan en conjuntos de ocho y consumen una cantidad enorme de energía en comparación con la infraestructura de centro de datos tradicional.

Todo ese calor debe ir a alguna parte y, dependiendo de la tecnología de enfriamiento del centro de datos, los sistemas más calientes pueden traducirse en un mayor consumo de agua.

Dentro de estas instalaciones, el agua se utiliza en una variedad de aplicaciones de refrigeración de centros de datos. Se pueden utilizar agua desionizada y otros fluidos en sistemas de refrigeración líquida directa (DLC). En lugar de soplar aire sobre un disipador de calor para enfriar los procesadores y las GPU, esta tecnología elimina el calor haciendo pasar refrigerante a través de placas frías conectadas a puntos de acceso en todo el sistema.

Una de las formas más eficientes de hacerlo es utilizar enfriadores evaporativos, como torres de enfriamiento. Esta técnica utiliza agua para extraer el calor del aire que sale del centro de datos. A medida que el aire caliente hace que el agua se evapore, se enfría hasta alcanzar una temperatura utilizable. La tecnología de enfriamiento evaporativo es bastante popular entre los operadores de centros de datos, ya que tiende a utilizar menos energía que la tecnología alternativa y, en muchos climas, solo es necesario utilizarla durante los meses más calurosos del año.

Te recomendamos

¿Un gasto necesario?

En 2021, investigadores de la Universidad de Oxford estimaron que los centros de datos estadounidenses consumieron colectivamente alrededor de 1700 millones de litros de agua por día. Sin embargo, señalan que la medición del consumo de agua de los centros de datos a menudo se ve dificultada por la falta de transparencia.

A pesar de esto, investigadores de la Universidad de California, Riverside y la Universidad de Texas en Arlington intentaron recientemente determinar cuánta agua estaba utilizando la IA generativa.

"ChatGPT necesita 'beber' una botella de agua de 500 ml para una conversación simple de aproximadamente 20 a 50 preguntas y respuestas, dependiendo de cuándo y dónde se implemente ChatGPT", estimaron los investigadores en un artículo de abril .

El consumo de agua real asociado con la ejecución de LLM, como ChatGPT, depende de una variedad de factores, incluidas las tecnologías de gestión térmica utilizadas por la instalación, dónde se entrenan y ejecutan esos modelos..

Por ejemplo, es probable que los centros de datos ubicados en climas más fríos consuman menos agua y puedan aprovechar temperaturas ambiente más bajas, especialmente en comparación con los de climas desérticos cálidos y áridos. Según el informe de AP, el centro de datos de Iowa donde Microsoft y OpenAI entrenaron GPT-4 solo consume agua cuando la temperatura supera los 29,3° C.

En su informe, Microsoft afirma que está utilizando métricas de consumo de agua para guiar los esfuerzos de recuperación de agua, mientras busca ser "agua positiva" neta para 2030. Hasta la fecha, la empresa afirma que ha firmado proyectos de recuperación de agua por 35 millones de metros cúbicos.

Te recomendamos

Apasionado de los esports desde joven, afición que me permitió acceder al mundo del periodismo. Escribo sobre videojuegos, tecnología, criptomonedas, ciencias y lucha libre en RPP Noticias.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA