Vagt utrolig at @ft skriver en artikkel om hvordan dagens GPU-leiepriser antyder at AI er en boble, men gjør en matematisk feil slik at alle beregningene deres er feil med en faktor på 8 ved å blande sammen per server og per GPU-økonomi.
Å gjøre regnestykket riktig var faktisk rimelig bullish for "subscalers" og super bullish for hyperscalers.
Artikkelen er ironisk nok nok en positiv indikator for GPU-restverdier.
Takk til @ShanuMathew93 @zephyr_z9 @The_Colonel__ for å påpeke feilen.
Som @zephyr_z9 og @The_Colonel__ påpekte da jeg siterte denne sirkelen, blander reporteren sammen breakeven-kostnader per system kontra per GPU-priser. Det er å sammenligne epler med appelsiner.
Ved hjelp av egne figurer:
DGX A100-klynge = $199K (~$25K per GPU * 8 GPUer)
Timer over 5 år = 5 * 365 * 24 = 43 800
Breakeven = $199K/43 800 timer = ~$4,54 per SYSTEM-time breakeven; del på 8 GPUer for å få hastighet per GPU
$4.54/8 = ~$0.57 GPU-timers breakeven-rate
Nå, når du ser tilbake på de tallene som plotter timeprisområdene per GPU, får det deg til å komme til en helt annen konklusjon.
DGX A100-systemets strømforbruk maks er 6,5kw. Så forutsatt 100 % utnyttelse, legg til strømkostnadene ved å bruke en forutsetning = 6,5 kw * 10 cent per kW * 43 800 timer = ytterligere ~$29K når det gjelder opex på toppen av capex. Det tar breakeven din nærmere $0.65 GPU-timer og ~$5.19 systemtimer (8 GPUer).