Все наблюдают за тем, как LLMs доминируют в центре внимания. Но если заглянуть немного ближе, то что-то другое назревает. Малые языковые модели (SLMs) легче, быстрее и более доступны. Для агентного ИИ и децентрализованных систем они могут быть более подходящими. Вот почему 🧵
2/ LLMs просто "большие". Триллионы параметров, мощные универсалы и дорогостоящие в эксплуатации. Они отлично справляются с широкими, открытыми задачами. Но они централизованы, непрозрачны и их трудно настраивать. SLMs компактны, прозрачны и гибки. Вы можете их донастраивать и запускать на своих условиях.
3/ SLMs блестят в реальных условиях: Они эффективны, быстро реагируют и не требуют тяжелой инфраструктуры. Идеально подходят для периферийных устройств и случаев, чувствительных к конфиденциальности. С помощью таких инструментов, как дистилляция, обрезка и рассуждение во время тестирования, они обеспечивают серьезную производительность за небольшую часть стоимости.
4/ Новое исследование это доказывает. Институт Алана Тьюринга запустил модель с 3 миллиардами параметров на ноутбуке. С умной настройкой она почти сравнялась с передовыми моделями в задачах медицинского рассуждения. Эта волна растет: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, все они продвигают SLM в мейнстрим.
5/ Более подробная информация об этом исследовании:
6/ Мы верим в создание ИИ, который будет открытым, локальным и децентрализованным. SLMs делают это возможным. Они не просто легковесные альтернативы, они являются основой для масштабируемых, модульных агентных систем. Маленький — это не компромисс. Маленький — это мощный выбор дизайна.
7/ Прочитайте наш полный блог на эту тему 👇
1,75K