Усі спостерігають за тим, як LLM домінують у центрі уваги. Але наблизити трохи ближче, і назріває ще дещо. Моделі малої мови (SLM) легші, швидші та доступніші. Для агентного штучного інтелекту та децентралізованих систем вони можуть краще підійти. І ось чому 🧵
2/ LLM просто "великі". Трильйони параметрів, потужні універсали та дорогі в експлуатації. Вони чудово підходять для широких відкритих завдань. Але вони централізовані, непрозорі та їх важко налаштувати. SLM компактні, прозорі та гнучкі. Ви можете точно налаштувати та запустити їх на своїх умовах.
3. SLM сяють у реальних умовах: Вони ефективні, швидко реагують і не потребують важкої інфраструктури. Ідеально підходить для периферійних пристроїв і сценаріїв використання, чутливих до конфіденційності. Завдяки таким інструментам, як дистиляція, обрізка та міркування під час випробувань, вони забезпечують серйозну продуктивність за невелику частину вартості.
4. Нові дослідження це доводять. Інститут Алана Тюрінга запустив модель з параметрами 3B на ноутбуці. Завдяки розумному тюнінгу він майже зрівнявся з моделями Frontier у завданнях, пов'язаних зі здоров'ям. Ця хвиля зростає: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, всі вони витісняють SLM у мейнстрім.
5. Детальніше про це дослідження:
6. Ми віримо у створення відкритого, локального та децентралізованого штучного інтелекту. SLM роблять це можливим. Це не просто легкі альтернативи, це основа для масштабованих, модульних агентних систем. Маленьке – це не компроміс. Малий – це потужний вибір дизайну.
7/ Прочитайте наш повний блог на цю тему 👇
1,73K