每個人都在關注大型語言模型(LLMs)主導焦點。 但稍微放大一點,你會發現其他東西正在醞釀。 小型語言模型(SLMs)更輕、更快,且更易於獲取。 對於自主AI和去中心化系統來說,它們可能更合適。 這就是原因 🧵
2/ LLMs 只是「大型」的。 數兆個參數,強大的通才,運行成本高。 它們在廣泛的開放式任務中表現出色。但它們是集中式的、不透明的,且難以自定義。 SLMs 則是緊湊的、透明的和靈活的。你可以根據自己的需求進行微調並運行它們。
3/ SLMs 在現實世界中表現出色: 它們高效、反應迅速,且不需要重型基礎設施。非常適合邊緣設備和隱私敏感的使用案例。 通過蒸餾、剪枝和測試時推理等工具,它們以極低的成本提供了卓越的性能。
4/ 新研究證明了這一點。 艾倫·圖靈研究所(Alan Turing Institute)在一台筆記本電腦上運行了一個3B參數模型。通過智能調整,它在健康推理任務上幾乎達到了前沿模型的水平。 這股浪潮正在增長:Phi、Nemotron-H、Qwen3、Mu、SmolLLM,所有這些都將SLM推向主流。
5/ 此研究的更多細節:
6/ 我們相信建立開放、本地和去中心化的人工智慧。 SLMs 使這成為可能。它們不僅僅是輕量級的替代方案,而是可擴展、模組化的代理系統的基礎。 小並不是妥協。 小是一種強大的設計選擇。
7/ 閱讀我們關於此主題的完整博客 👇
1.76K