Diventerà evidente col senno di poi...
Daniel Newman
Daniel Newman11 ago, 03:25
Non penso che le persone apprezzino appieno la quantità di domanda che l'inferenza creerà per l'infrastruttura AI. Addestrare modelli con trilioni di parametri sarà insignificante rispetto ai volumi di trilioni di token concorrenti che operano 24/7/365 in ogni attività commerciale, organizzativa e di consumo. Sono molto ottimista su questo sviluppo. E ovviamente $NVDA va bene, ma anche i nomi nei chip, nei server, nell'energia, nel networking e nelle piattaforme agentiche saliranno con esso. 💪🏻 Segnalo 😎🚀
@ShanuMathew93 @danielnewmanUV ♥️👇🏽
Shanu Mathew
Shanu Mathew4 ago, 23:39
Punti salienti della chiamata AMZN: - Carenza di capacità infrastrutturale AI: AWS ha "più domanda di quanta capacità abbiamo" con l'energia che rappresenta il vincolo più grande; si aspetta che i problemi di fornitura persistano per "diversi trimestri" nonostante i 31,4 miliardi di dollari di CapEx trimestrale in "chip, data center e energia" - Costruzione infrastrutturale pluriennale: Riconosce che costruire una capacità AI sufficiente richiederà "diversi trimestri" ma si aspetta un miglioramento ogni trimestre; considera l'AI come "la più grande trasformazione tecnologica della nostra vita" che richiede investimenti pesanti e sostenuti - Economia dell'inferenza che guida la strategia: Si aspetta che l'80-90% dei costi dell'AI si sposti dalla formazione all'inferenza su larga scala; posiziona il silicio personalizzato come un vantaggio critico poiché i clienti si ancoreranno a una migliore performance di prezzo come hanno fatto con le CPU - Opportunità di ricavi massiccia vincolata: AWS ha un tasso di run rate annualizzato di 123 miliardi di dollari ma "potrebbe generare più ricavi e aiutare di più i clienti" se esistesse capacità; l'AI generativa è già un "business da miliardi di dollari con una percentuale a tre cifre anno su anno"
5,17K