“El mismo que Madrid o Londres”: este es el consumo anual de energía de ChatGPT
El consumo anual de energía de ChatGPT, el ...
El consumo anual de energía de ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, alcanza niveles similares a la demanda eléctrica de grandes metrópolis globales.
Un reciente estudio puso de manifiesto que este gasto energético es comparable al de ciudades como Madrid durante más de siete meses, generando interrogantes sobre la sostenibilidad de esta tecnología en rápida expansión.
Los modelos de lenguaje grandes (LLM) han transformado el mundo de la IA, haciéndola accesible a millones de usuarios a través de dispositivos conectados.
Desde su inicio como herramientas de consulta, estos sistemas, liderados por ChatGPT de OpenAI, han evolucionado para razonar, codificar e incluso tomar decisiones, atrayendo a casi 900 millones de usuarios activos semanales, según cifras recientes compartidas por The Information.
Esta popularidad masiva se traduce en millones de solicitudes diarias, impulsando un consumo energético considerable. La demanda se intensifica a medida que los modelos se vuelven más complejos y capaces. Una investigación de la Universidad de Rhode Island estimó que ChatGPT-5 consume entre 2 y 45 vatios por mensaje de longitud media, promediando 18,9 vatios-hora. Esta cifra es más de 50 veces superior a la energía requerida para una búsqueda típica en Google, según un estudio realizado por el Instituto de Investigación de Energía Eléctrica en Estados Unidos.
El informe del portal BestBrokers revela que el consumo anual de ChatGPT asciende a aproximadamente 17,3 teravatios-hora de electricidad. Para ponerlo en perspectiva, esta cantidad podría abastecer a los ciudadanos de España durante 23 días, o a la ciudad de Madrid durante unos 7 meses y 19 días.
Otras capitales europeas también se ven eclipsadas: París podría ser abastecida por más de un mes; Londres, por más de cinco meses; y Berlín, por alrededor de un año y cinco meses. Ciudades como Copenhague (Dinamarca) y Ámsterdam (Países Bajos), podrían funcionar durante más de cuatro años con la energía que consume ChatGPT en un año.
Además del impacto ambiental, el mantenimiento continuo de este modelo implica un costo energético anual estimado en 2420 millones de dólares para OpenAI, basándose en las tarifas eléctricas comerciales actuales.
Alan Goldberg, analista de datos de BestBrokers, subraya que las operaciones diarias de inteligencia artificial “consumen electricidad a una escala que rivaliza con la de naciones enteras”. Añade que la demanda computacional para entrenamiento e inferencia alcanza decenas de gigavatios-hora.
Goldberg advierte que las mejoras en eficiencia son superadas por el crecimiento constante del uso global y la “expansión implacable de los parámetros de los modelos”. Ante este escenario, el analista enfatiza la necesidad de una “transparencia rigurosa” y “estándares de optimización exigibles”.
Sin estas medidas, la aceleración de la IA corre el riesgo de “imponer profundas presiones infraestructurales y ambientales, lo que plantea interrogantes urgentes sobre la sostenibilidad de esta trayectoria tecnológica”, sentenció Goldberg.
Este contenido fue producido por un equipo de LA NACION con la asistencia de la IA