Mi piacciono queste intuizioni di un dirigente di Schneider Electric (attore chiave nella costruzione di data center). "L'hardware AI sta riscrivendo l'equazione energetica dei data center. Un rack del Blackwell 2 di NVIDIA ora consuma circa 180-200 kW, portando la domanda totale del sito da ~300 MW a 1.2-1.5 GW—un aumento di 4-5 volte in un singolo ciclo architettonico. I picchi di potenza ("300 MW → 1.5 GW → 500 MW") stressano trasformatori e asset di distribuzione vecchi di 30-50 anni che non sono mai stati progettati per una tale volatilità, costringendo le utility e gli operatori a ripensare le strategie di rinforzo della rete e di generazione in loco. La latenza, non la terra, decide la geografia—da qui l'ascesa dei "micro-data-center metropolitani". Gli hyperscalers preferiscono ancora i siti "mega" nel deserto, ma i carichi di lavoro in tempo reale (trading, controllo qualità della produzione ad alta velocità, assemblaggio robotico) non possono tollerare il viaggio di andata e ritorno verso super-cluster remoti. Risultato: le impronte dei data center stanno tornando in regioni dense (ad es., il Pennsylvania AI Hub) e persino sui pavimenti delle fabbriche, dove stanze edge o "micro-cloud" ospitano rack misti di PLC legacy, CPU Xeon/EPYC e GPU di alto livello per mantenere l'inferenza all'interno dell'intervallo di 20-50 ms. Una "mini-rinascita" nucleare è finanziata dai giganti del cloud. Microsoft ha già firmato un contratto di 20 anni per riavviare l'Unità 1 di Three Mile Island; i fornitori di SMR (GE, Westinghouse, Rolls-Royce) stanno posizionando piccoli reattori come baseload drop-in per campus hyperscale. Gli operatori ammettono che il percorso ingegneristico e normativo è nuovo e richiede capitali, ma vedono il nucleare come l'unica fornitura carbon-neutral, 24×7, che scala con la domanda di AI. Il raffreddamento e gli ausiliari in loco sono il prossimo hotspot di investimento. Il raffreddamento tradizionale monofase è già inadeguato; i sistemi liquidi multifase stanno diventando obbligatori per i carichi termici di classe Blackwell. Gli operatori stanno valutando generatori diesel o a gas dedicati—e infine SMR—per gestire i "carichi utility" (raffreddamento, ventilazione, sicurezza) localmente, riducendo il prelievo dalla rete di circa il 40% e alleviando i colli di bottiglia di interconnessione. Questi settori creano un nuovo ciclo di capex per i produttori di gestione termica e i fornitori di generazione distribuita. Nessuna pausa in vista—le roadmap dei chip e la volatilità del software mantengono il capex sull'acceleratore. Con ogni generazione di GPU che offre una densità maggiore, i data center richiedono continui retrofit elettrici e meccanici; gli hyperscalers mescolano siti di carico costante di proprietà con capacità di picco da colocation di livello 1 (Equinix, NTT, Compass, ecc.). La domanda di software è ancora meno prevedibile: i LLM cinesi emergenti (DeepSeek, Alibaba, Tencent) e le scoperte accademiche ancora sconosciute potrebbero ulteriormente aumentare l'intensità computazionale, rendendo qualsiasi previsione da due a cinque anni altamente incerta. Gli investitori dovrebbero monitorare simultaneamente quattro lenti—accademica, start-up, hyperscaler e tendenze di allocazione del capitale—per evitare punti ciechi. "
93,77K