Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Toată lumea urmărește LLM-urile care domină lumina reflectoarelor.
Dar măriți puțin mai aproape și altceva se pregătește.
Modelele lingvistice mici (SLM) sunt mai ușoare, mai rapide și mai accesibile.
Pentru inteligența artificială agentică și sistemele descentralizate, acestea ar putea fi mai potrivite.
Iată de ce 🧵

2/ LLM-urile sunt doar "mari".
Trilioane de parametri, generaliști puternici și costisitor de rulat.
Funcționează excelent pentru sarcini largi, deschise. Dar sunt centralizate, opace și greu de personalizat.
SLM-urile sunt compacte, transparente și flexibile. Le puteți regla și rula în condițiile dvs.
3/ SLM-urile strălucesc în setările din lumea reală:
Sunt eficiente, reacționează rapid și nu au nevoie de infrastructură grea. Perfect pentru dispozitive edge și cazuri de utilizare sensibile la confidențialitate.
Cu instrumente precum distilarea, tăierea și raționamentul în timp de testare, acestea oferă performanțe serioase la o fracțiune din cost.
4/ Noi cercetări o dovedesc.
Institutul Alan Turing a rulat un model de parametri 3B pe un laptop. Cu reglarea inteligentă, aproape că a egalat modelele de frontieră în ceea ce privește sarcinile de raționament al sănătății.
Acest val este în creștere: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, toate împingând SLM-urile în mainstream.

5/ Mai multe detalii despre această cercetare:
6/ Credem în construirea unei inteligențe artificiale deschise, locale și descentralizate.
SLM-urile fac acest lucru posibil. Nu sunt doar alternative ușoare, ci sunt baza pentru sisteme agentice scalabile și modulare.
Mic nu este un compromis.
Mic este o alegere puternică de design.
7/ Citiți blogul nostru complet pe această temă 👇
2,72K
Limită superioară
Clasament
Favorite