Me gustan estas ideas de un ejecutivo de Schneider Electric (un jugador clave en la construcción de centros de datos). " El hardware de IA está reescribiendo la ecuación energética del centro de datos. Un rack de Blackwell 2 de NVIDIA ahora consume aproximadamente 180-200 kW, aumentando la demanda total del sitio de ~300 MW a 1.2-1.5 GW—un salto de 4 a 5 veces en un solo ciclo de arquitectura. Los picos de potencia (“300 MW → 1.5 GW → 500 MW”) estresan transformadores y activos de distribución de 30 a 50 años que nunca fueron diseñados para tal volatilidad, obligando a las utilidades y operadores a repensar las estrategias de refuerzo de la red y generación en el sitio. La latencia, no la tierra, decide la geografía—de ahí el auge de los “micro-centros de datos metropolitanos.” Los hiperescaladores aún prefieren sitios “mega” en el desierto, pero las cargas de trabajo en tiempo real (trading, control de calidad de manufactura de alta velocidad, ensamblaje robótico) no pueden tolerar el viaje de ida y vuelta a super-clústeres remotos. Resultado: las huellas de los centros de datos están retrocediendo hacia regiones densas (por ejemplo, el Hub de IA de Pennsylvania) e incluso en los pisos de las fábricas, donde salas de “micro-nube” o de borde albergan racks mixtos de PLCs heredados, CPUs Xeon/EPYC y GPUs de primer nivel para mantener la inferencia dentro del rango de 20-50 ms. Una “mini-renacimiento” nuclear está siendo financiado por los gigantes de la nube. Microsoft ya ha firmado un contrato de 20 años para reiniciar la Unidad 1 de Three Mile Island; los proveedores de SMR (GE, Westinghouse, Rolls-Royce) están posicionando pequeños reactores como base de carga para campus hiperescalables. Los operadores admiten que el camino de ingeniería y regulación es novedoso y intensivo en capital, pero ven la energía nuclear como la única fuente de carbono neutral, 24 × 7, que escala con la demanda de IA. La refrigeración y los auxiliares en el sitio son el próximo punto caliente de inversión. La refrigeración tradicional de fase única ya es inadecuada; los sistemas de líquido multifásico se están volviendo obligatorios para las cargas térmicas de clase Blackwell. Los operadores están evaluando generadores diésel o de gas dedicados—y, en última instancia, SMRs—para ejecutar “cargas de utilidad” (refrigeración, ventilación, seguridad) localmente, reduciendo la demanda de la red en aproximadamente un 40 % y aliviando los cuellos de botella de interconexión. Estos nichos crean un nuevo ciclo de capex para OEMs de gestión térmica y proveedores de generación distribuida. No hay pausa a la vista—las hojas de ruta de chips y la volatilidad del software mantienen el capex en el acelerador. Con cada generación de GPU entregando mayor densidad, los centros de datos requieren actualizaciones eléctricas y mecánicas continuas; los hiperescaladores combinan sitios de carga constante de propiedad con capacidad de ráfaga de colos de nivel 1 (Equinix, NTT, Compass, etc.). La demanda de software es aún menos predecible: los LLMs emergentes chinos (DeepSeek, Alibaba, Tencent) y los avances académicos aún desconocidos podrían aumentar aún más la intensidad de cómputo, haciendo que cualquier pronóstico de dos a cinco años sea altamente incierto. Los inversores deberían seguir cuatro lentes simultáneamente—académica, start-up, hiperescalador y tendencias de asignación de capital—para evitar puntos ciegos. "
93,77K