MOZBUE

    Por qué los centros de datos de IA están consumiendo tanta energía (y qué se está haciendo al respecto)

    Rodrigo ValenzuelaRodrigo Valenzuela· 2026-03-14
    Inteligencia Artificial7 min
    Por qué los centros de datos de IA están consumiendo tanta energía (y qué se está haciendo al respecto)

    Cuando usas ChatGPT, Gemini o Copilot para generar un texto o una imagen, no lo piensas, pero hay miles de chips corriendo en algún centro de datos consumiendo electricidad para procesar tu solicitud. Multiplicado por miles de millones de consultas diarias, el impacto energético de la IA se convirtió en uno de los temas más serios —y menos discutidos en los titulares tecnológicos— de 2026.

    ¿Cuánta energía consume realmente la IA?

    Los números son impactantes. Según estimaciones de la Agencia Internacional de Energía (IEA), los centros de datos a nivel global consumían alrededor de 200-250 TWh de electricidad al año hasta 2022. Con el boom de la IA, las proyecciones para 2026 apuntan a más del doble: entre 500 y 1,000 TWh anuales, dependiendo de la velocidad de adopción.

    Para poner esa cifra en perspectiva: 1,000 TWh equivalen aproximadamente al consumo eléctrico anual completo de Francia.

    Una sola consulta a un modelo de IA como GPT-4 consume aproximadamente 10 veces más energía que una búsqueda en Google. El entrenamiento de un modelo grande como GPT-4 se estima que consumió alrededor de 50 GWh, equivalente al consumo eléctrico anual de unas 5,000 casas promedio en México.

    ¿Por qué los centros de datos de IA consumen tanto?

    Hay tres factores principales:

    1. Las GPUs consumen mucho más que los servidores tradicionales

    Una GPU de IA moderna como la H100 de NVIDIA puede consumir 700 vatios por chip. Un servidor de IA típico lleva 8 GPUs, lo que significa 5,600 vatios solo en tarjetas gráficas, más el consumo del resto del servidor. Un data center con miles de estos servidores fácilmente alcanza decenas de megavatios de demanda constante.

    2. El enfriamiento es enormemente costoso en energía

    Todo ese calor generado por los chips tiene que irse a algún lado. Los sistemas de enfriamiento de los centros de datos —aires acondicionados industriales, torres de enfriamiento, sistemas de refrigeración líquida— pueden consumir tanto como los propios servidores. La eficiencia energética de un data center se mide con el indicador PUE (Power Usage Effectiveness): un PUE de 1.0 significaría que toda la energía va a los servidores; los mejores centros de datos modernos alcanzan 1.1-1.2.

    3. La demanda crece exponencialmente

    No es solo que cada consulta consuma energía, es que el número de consultas crece de manera exponencial. Cada nueva aplicación que integra IA, cada chatbot empresarial, cada herramienta de generación de imágenes suma decenas de millones de solicitudes adicionales al día.

    La carrera por el gigavatio

    Las grandes tecnológicas están en una carrera para construir más infraestructura de IA, medida ahora no en megavatios sino en gigavatios:

    • Microsoft comprometió $80 mil millones de dólares en 2025-2026 para construir centros de datos de IA en múltiples continentes.
    • Google anunció inversiones superiores a $75 mil millones.
    • Amazon superó los $100 mil millones en compromisos de infraestructura de nube e IA.
    • Meta está construyendo lo que describe como "el centro de datos de IA más grande del mundo", con 1 gigavatio de capacidad.

    NVIDIA, en su GTC 2026, también anunció asociaciones que implican el despliegue de gigavatios de sus sistemas Vera Rubin. Las inversiones en infraestructura de IA ya se miden en la misma escala que las plantas de energía.

    ¿Qué soluciones se están buscando?

    Energía nuclear

    Varias empresas tecnológicas están apostando por la energía nuclear como solución. Microsoft firmó un acuerdo con Constellation Energy para reactivar la planta nuclear de Three Mile Island (Pennsylvania), que había cerrado en 2019. Google también firmó acuerdos para energía nuclear de fusión con empresas como Commonwealth Fusion Systems.

    Los reactores modulares pequeños (SMR, por sus siglas en inglés) son vistos como el futuro: centrales nucleares del tamaño de un contenedor marítimo que pueden instalarse junto a los centros de datos.

    Modelos más eficientes

    IBM, en sus predicciones tecnológicas para 2026, señaló que "no podemos seguir escalando la computación; la industria debe escalar la eficiencia en cambio". Esto está impulsando una generación de modelos de IA más compactos y eficientes que logran resultados similares a los grandes modelos consumiendo mucho menos energía.

    DeepSeek demostró con su modelo R1 que es posible lograr resultados de frontera con órdenes de magnitud menos computación que los modelos de OpenAI. Esta eficiencia tiene un impacto energético directo.

    Edge AI: mover la computación al dispositivo

    Una tendencia creciente es mover parte de la computación de IA fuera de los centros de datos y hacia los propios dispositivos (laptops, teléfonos, dispositivos IoT). Las NPUs en los chips modernos permiten ejecutar modelos pequeños localmente, reduciendo la demanda en la infraestructura central.

    Refrigeración por inmersión

    En lugar de usar aire frío para enfriar los servidores, algunos centros de datos avanzados sumergen literalmente los servidores en aceite dieléctrico no conductor. Este método es mucho más eficiente que el aire y puede reducir el consumo de enfriamiento en un 90%.

    ¿Debería preocuparte como usuario?

    La huella de carbono individual de usar herramientas de IA es relativamente pequeña en este momento. El problema es estructural y debe resolverse a nivel de política energética e inversión en renovables, no a través del comportamiento individual.

    Lo que sí es importante como ciudadano es exigir transparencia a las grandes tecnológicas sobre sus compromisos climáticos y cómo están abasteciendo de energía su infraestructura de IA. No es suficiente con anunciar objetivos de carbono neutro para 2030 si el camino implica aumentar masivamente el consumo de energía fósil en el corto plazo.

    El boom de la IA es real, su potencial transformador es real, y su impacto energético también es real. La pregunta que definirá las próximas décadas es si podemos construir esta infraestructura de manera sostenible.

    Compartir:Twitter/XLinkedInWhatsApp
    Rodrigo Valenzuela

    Rodrigo Valenzuela

    Editor en Jefe

    Periodista tecnológico especializado en el ecosistema digital latinoamericano, fintech y ciberseguridad.

    2026-03-14

    También te puede interesar

    NVIDIA GTC 2026: Jensen Huang presenta Vera Rubin y el futuro de la IA física
    Inteligencia Artificial

    NVIDIA GTC 2026: Jensen Huang presenta Vera Rubin y el futuro de la IA física

    2026-03-147 min
    Agentes de IA autónomos en 2026: qué son, cómo funcionan y cuáles puedes usar ya
    Inteligencia Artificial

    Agentes de IA autónomos en 2026: qué son, cómo funcionan y cuáles puedes usar ya

    2026-03-147 min
    Los mejores modelos de IA de código abierto en 2026: alternativas reales a ChatGPT que puedes usar gratis
    Inteligencia Artificial

    Los mejores modelos de IA de código abierto en 2026: alternativas reales a ChatGPT que puedes usar gratis

    2026-03-148 min