热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
每个人都在关注大型语言模型(LLMs)主导聚光灯。
但稍微放大一点,你会发现其他东西正在酝酿。
小型语言模型(SLMs)更轻、更快,且更易于获取。
对于自主AI和去中心化系统,它们可能更合适。
这就是原因 🧵

2/ LLMs 只是 "大型"。
数万亿个参数,强大的通才,运行成本高。
它们在广泛、开放式的任务中表现出色。但它们是集中式的,不透明且难以定制。
SLMs 紧凑、透明且灵活。你可以根据自己的需求进行微调和运行。
3/ SLMs 在现实世界中表现出色:
它们高效、反应迅速,并且不需要重型基础设施。非常适合边缘设备和隐私敏感的用例。
通过蒸馏、剪枝和测试时推理等工具,它们以极低的成本提供了卓越的性能。
4/ 新研究证明了这一点。
阿兰·图灵研究所使用一台笔记本电脑运行了一个3B参数模型。通过智能调优,它在健康推理任务上几乎达到了前沿模型的水平。
这一波浪潮正在增长:Phi、Nemotron-H、Qwen3、Mu、SmolLLM,所有这些都将SLM推向主流。

5/ 该研究的更多细节:
6/ 我们相信构建开放、本地和去中心化的人工智能。
SLMs 使这一切成为可能。它们不仅仅是轻量级的替代品,而是可扩展、模块化的代理系统的基础。
小并不是妥协。
小是一种强大的设计选择。
7/ 阅读我们关于这个主题的完整博客 👇
1.76K
热门
排行
收藏