Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Все наблюдают за тем, как LLMs доминируют в центре внимания.
Но если заглянуть немного ближе, то что-то другое назревает.
Малые языковые модели (SLMs) легче, быстрее и более доступны.
Для агентного ИИ и децентрализованных систем они могут быть более подходящими.
Вот почему 🧵

2/ LLMs просто "большие".
Триллионы параметров, мощные универсалы и дорогостоящие в эксплуатации.
Они отлично справляются с широкими, открытыми задачами. Но они централизованы, непрозрачны и их трудно настраивать.
SLMs компактны, прозрачны и гибки. Вы можете их донастраивать и запускать на своих условиях.
3/ SLMs блестят в реальных условиях:
Они эффективны, быстро реагируют и не требуют тяжелой инфраструктуры. Идеально подходят для периферийных устройств и случаев, чувствительных к конфиденциальности.
С помощью таких инструментов, как дистилляция, обрезка и рассуждение во время тестирования, они обеспечивают серьезную производительность за небольшую часть стоимости.
4/ Новое исследование это доказывает.
Институт Алана Тьюринга запустил модель с 3 миллиардами параметров на ноутбуке. С умной настройкой она почти сравнялась с передовыми моделями в задачах медицинского рассуждения.
Эта волна растет: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, все они продвигают SLM в мейнстрим.

5/ Более подробная информация об этом исследовании:
6/ Мы верим в создание ИИ, который будет открытым, локальным и децентрализованным.
SLMs делают это возможным. Они не просто легковесные альтернативы, они являются основой для масштабируемых, модульных агентных систем.
Маленький — это не компромисс.
Маленький — это мощный выбор дизайна.
7/ Прочитайте наш полный блог на эту тему 👇
1,75K
Топ
Рейтинг
Избранное