El boom de la inteligencia artificial está llenando titulares… y también líneas de alta tensión. Detrás de cada chatbot o modelo generativo hay centros de datos que consumen tanta electricidad como una pequeña ciudad, algo que preocupa a las redes eléctricas, a los reguladores y, al final, a quienes miran cada mes la factura de la luz.
Un nuevo estudio demuestra que estos mismos centros de datos de IA pueden funcionar como “amortiguadores” de la red. Es decir, pueden reducir su consumo en los momentos de máxima tensión sin dejar de prestar servicio, y hacerlo solo con software, sin baterías extra ni grandes obras de infraestructura.
Un problema que ya se nota en la red
El consumo eléctrico asociado a la IA está creciendo de forma exponencial. Según el trabajo, esa presión ya compromete en parte la fiabilidad de las redes, encarece las inversiones necesarias y retrasa la conexión de nuevos centros de datos porque las redes locales van al límite.
Mientras tanto, muchas de las soluciones habituales pasan por construir más líneas, más subestaciones o más almacenamiento. Todo ello cuesta dinero, tiempo y, a menudo, implica más impacto ambiental si se recurre a generación fósil para cubrir los picos. En el fondo, el estudio plantea una pregunta simple aunque incómoda.
Si la IA es parte del problema del consumo eléctrico, ¿puede ser también parte de la solución?
El experimento en Phoenix con 256 GPU
Para comprobarlo, el equipo de Emerald AI, junto a Oracle, NVIDIA, la compañía eléctrica Salt River Project y el instituto EPRI, probó un sistema de control en un centro de datos real situado en Phoenix, Arizona.
En ese edificio funcionaba un clúster de 256 GPU ejecutando cargas de trabajo de IA “reales”. Sobre ese clúster se instaló una capa de software de orquestación que hacía tres cosas a la vez.
Por un lado, leía en tiempo real una señal enviada desde la red eléctrica con el objetivo de reducción de potencia. Al mismo tiempo, monitorizaba el estado de las aplicaciones y sus acuerdos de nivel de servicio, es decir, qué trabajos podían permitirse ir un poco más lentos y cuáles no. Con esa información, el sistema decidía qué tareas pausar, cuáles seguir pero con menos GPU y en qué casos era suficiente con limitar la potencia de las tarjetas gráficas.
El resultado clave es sencillo de recordar. Durante tres horas de demanda punta, el clúster redujo su consumo aproximadamente un 25 % y mantuvo esa reducción de forma estable, con un impacto mínimo en el rendimiento que veían los usuarios. Los trabajos “flexibles” siguieron por encima de los umbrales de rendimiento que se les habían fijado.
Además de las pruebas con dos compañías eléctricas de Arizona, los autores recrearon un episodio histórico de restricciones en la red de California durante 2020. El clúster fue capaz de seguir una señal de recorte más compleja, con distintos niveles y horarios, imitando lo que podría pedir un operador en una ola de calor extrema.
De “problema” a recurso flexible para la transición ecológica
En la práctica, lo que propone este trabajo es tratar los centros de datos de IA como una gran carga flexible que se coordina con la red. Es la misma lógica que se aplica cuando se pagan programas de “respuesta a la demanda” a grandes industrias para que paren hornos o maquinaria durante unas horas críticas, pero llevada al mundo digital y automatizada.
Los autores señalan que otros estudios ya apuntaban a un margen importante si grandes consumidores se vuelven más flexibles. En Estados Unidos se habla de un “espacio libre” de la red cercano a los 100 gigavatios aprovechable si cargas como los centros de datos reducen en torno a un 0,5 % su demanda anual de forma coordinada.
Desde el punto de vista climático, esa flexibilidad ayuda a algo muy concreto. Si se recortan los picos, el sistema necesita arrancar menos centrales caras y contaminantes en los momentos de máxima demanda, precisamente cuando suelen entrar más plantas de gas. A cambio, se facilita integrar más renovables, que son limpias pero variables. No es una varita mágica, pero es una pieza más de la transición ecológica.
Qué significa esto para la ciudadanía y la sostenibilidad
Para quien está al otro lado del enchufe hay tres ideas importantes:
- Primero, la IA sigue consumiendo mucha energía y también agua para refrigerar los centros de datos. Diversos análisis advierten de que, si el despliegue se hace sin control, puede tensionar aún más la red y los recursos hídricos de ciertas regiones.
- Segundo, este estudio demuestra que existe margen técnico para que los grandes centros de datos colaboren activamente con la red sin “apagar” los servicios que usamos cada día. Eso abre la puerta a tarifas especiales, incentivos y requisitos regulatorios que premien a los centros que se ofrecen como recursos flexibles y penalicen los que solo añaden carga rígida.
- Tercero, la transparencia es relevante. Parte de los datos experimentales y del código utilizado en esta investigación se ha publicado en un repositorio abierto, lo que permite a otros equipos comprobar y ampliar los resultados. Para la ciudadanía y las administraciones, esto envía un mensaje claro. No se trata solo de construir más cables y más centros de datos, sino de exigir que quienes se benefician del auge de la IA también ayuden a que el sistema eléctrico sea más estable, más limpio y, en buena medida, más asequible.
El estudio científico original, titulado “AI data centres as grid-interactive assets”, ha sido publicado en la revista Nature Energy.



















