La carenza di memoria DDR5 sta per diventare ancora più grave e i prezzi stanno per aumentare ulteriormente, poiché DeepSeek ha appena pubblicato un documento di ricerca: "Memoria Condizionale tramite Lookup Scalabile: Un Nuovo Asse di Sparsità per i Modelli di Linguaggio di Grandi Dimensioni". In sostanza, hanno dimostrato che è possibile scalare i modelli anche con la memoria CXL separando il modello AI in memoria di ragionamento e memoria di conoscenza. La memoria di ragionamento (Pensiero) rimane su HBM, ma la memoria di conoscenza (Biblioteca) viene trasferita su CXL-RAM (essenzialmente DDR5). La cosa positiva è che i modelli possono ora scalare a dimensioni ancora maggiori nonostante la carenza di HBM. $MU, Samsung e SK Hynix beneficeranno ancora di più, poiché oltre all'HBM esaurito, ora i prezzi del DDR5 cresceranno ulteriormente, poiché questo diventa un altro percorso di scalabilità.