DDR5内存短缺即将加剧,价格也将进一步上涨,因为DeepSeek刚刚发布了一篇研究论文:"通过可扩展查找的条件内存:大型语言模型稀疏性的一个新轴"。 本质上,他们展示了通过将AI模型分为推理和知识内存,可以使用CXL内存扩展模型。推理(思考)保留在HBM上,但知识内存(库)则卸载到CXL-RAM(本质上是DDR5)。 好消息是,尽管HBM短缺,模型现在仍然可以扩展到更大的规模。 $MU、三星和SK海力士将受益更多,因为除了HBM已经售罄外,DDR5的价格也将进一步上涨,因为这成为了另一个扩展路径。