Недостаток памяти DDR5 собирается усугубиться, и цены, вероятно, вырастут еще больше, так как DeepSeek только что выпустил исследовательскую работу: "Условная память через масштабируемый поиск: новая ось разреженности для больших языковых моделей". По сути, они показали, что вы также можете масштабировать модели с помощью памяти CXL, разделив модель ИИ на память для рассуждений и память знаний. Память для рассуждений (мышление) остается на HBM, но память знаний (библиотека) переносится на CXL-RAM (по сути, DDR5). Хорошая новость в том, что модели теперь могут масштабироваться до еще больших размеров, несмотря на нехватку HBM. $MU, Samsung и SK Hynix получат еще больше выгоды, так как, помимо того, что HBM распродан, теперь цены на DDR5 будут расти еще больше, поскольку это становится еще одним путем масштабирования.