Martes, Noviembre 26

Un nuevo estudio ha puesto de relieve un problema ambiental que muchas veces pasa desapercibido: el consumo de agua por la inteligencia artificial. La creciente dependencia de los modelos de lenguaje como GPT-4 implica una enorme demanda de recursos. Si bien estas tecnologías han transformado la forma en que trabajamos y nos comunicamos, su uso masivo está teniendo un alto costo para el planeta.

Un estudio de la Universidad de California, publicado por The Washington Post, reveló que generar solo 100 palabras con GPT-4 consume 1,408 litros de agua, equivalente a tres botellas de medio litro. Esto se debe al enorme gasto energético que requieren los centros de datos para procesar la inteligencia artificial y enfriar los servidores.

MIRA: Se filtra documento interno de MrBeast: la fórmula de su éxito en YouTube queda expuesta

El impacto ambiental es aún mayor si consideramos las millones de consultas que ChatGPT recibe cada día, muchas de ellas triviales. No solo se consume agua, sino también grandes cantidades de electricidad para mantener los servidores en funcionamiento.

Según informa Computer Hoy, el funcionamiento de los modelos de lenguaje como GPT-4 requiere un procesamiento intensivo en la nube, lo que implica el uso de miles de chips, especialmente de Nvidia. Estos chips generan mucho calor y necesitan un sistema de refrigeración eficiente, que usa grandes cantidades de agua.

El estudio revela que si un 10% de los estadounidenses usara GPT-4 una vez por semana, se consumiría la misma cantidad de electricidad que las viviendas de Washington D.C. en 20 días.

Representantes de OpenAI, Meta, Google y Microsoft han reafirmado su compromiso de reducir el consumo de agua en sus centros de datos, pero hasta ahora no han presentado soluciones específicas.

Compartir
Exit mobile version