Jeg liker denne innsikten fra en leder hos Schneider Electric (nøkkelaktør innen utbygging av datasentre). " AI-maskinvare omskriver datasenterets energiligning. Ett rack av NVIDIAs Blackwell 2 trekker nå omtrent 180-200 kW, noe som driver etterspørselen på hele anlegget fra ~300 MW til 1,2-1,5 GW – et hopp på 4 til 5 × i en enkelt arkitektursyklus. Krafttoppene («300 MW → 1,5 GW → 500 MW») stresser 30 til 50 år gamle transformatorer og distribusjonsanlegg som aldri ble designet for slik volatilitet, og tvinger verktøy og operatører til å revurdere nettforsterkning og produksjonsstrategier på stedet. Latens, ikke land, bestemmer geografien – derav fremveksten av «metro-mikrodatasentre». Hyperscalers foretrekker fortsatt ørken "mega"-nettsteder, men arbeidsbelastninger i sanntid (handel, høyhastighetsproduksjon QC, robotmontering) kan ikke tolerere rundturen til eksterne superklynger. Resultat: Datasenterfotavtrykk skyves tilbake til tette områder (f.eks. Pennsylvania AI Hub) og til og med til fabrikkgulv, der kant- eller «mikrosky»-rom huser blandede stativer med eldre PLS-er, Xeon/EPYC-CPUer og GPU-er på toppnivå for å holde slutninger innenfor 20–50 ms-konvolutten. En kjernefysisk «mini-renessanse» blir finansiert av skygigantene. Microsoft har allerede blekket et 20-årig uttak for å starte Three Mile Island Unit 1 på nytt; SMR-leverandører (GE, Westinghouse, Rolls-Royce) posisjonerer små reaktorer som drop-in grunnlast for hyperskala campuser. Operatører innrømmer at ingeniør- og reguleringsveien er ny og kapitalintensiv, men ser på kjernekraft som den eneste karbonnøytrale, 24 × 7 forsyningen som skalerer med AI-etterspørselen. Kjøling og hjelpeutstyr på stedet er det neste investeringshotspotet. Tradisjonell enfasekjøling er allerede utilstrekkelig; flerfasede væskesystemer blir obligatoriske for termiske belastninger i Blackwell-klassen. Operatører evaluerer dedikerte diesel- eller gassgeneratorer – og til slutt SMR-er – for å kjøre «bruksbelastninger» (kjøling, ventilasjon, sikkerhet) lokalt, redusere netttrekket med ≈40 % og lette flaskehalser i sammenkoblinger. Disse nisjene skaper en ny capex-syklus for OEM-er for termisk styring og leverandører av distribuert generasjon. Ingen pause i sikte – brikkeveikart og programvarevolatilitet holder capex på gasspedalen. Med hver GPU-generasjon som leverer høyere tetthet, krever datasentre kontinuerlige elektriske og mekaniske ettermonteringer; hyperscalere blander nettsteder som eies med konstant belastning med burst-kapasitet fra Tier-1 colos (Equinix, NTT, Compass, etc.). Etterspørselen etter programvare er enda mindre forutsigbar: nye kinesiske LLM-er (DeepSeek, Alibaba, Tencent) og fortsatt ukjente akademiske gjennombrudd kan øke dataintensiteten ytterligere, noe som gjør enhver to- til femårsprognose svært usikker. Investorer bør spore fire linser samtidig – akademiske, oppstarts-, hyperscaler- og kapitalallokeringstrender – for å unngå blindsoner. "
93,76K