Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alle ser LLM-er dominere rampelyset.
Men zoom inn litt nærmere, og noe annet er under oppseiling.
Små språkmodeller (SLM-er) er lettere, raskere og mer tilgjengelige.
For agentisk AI og desentraliserte systemer kan de passe bedre.
Her er grunnen 🧵

2/ LLM-er er bare "store".
Billioner av parametere, kraftige generalister og dyre i drift.
De fungerer utmerket for brede, åpne oppgaver. Men de er sentraliserte, ugjennomsiktige og vanskelige å tilpasse.
SLM-er er kompakte, gjennomsiktige og fleksible. Du kan finjustere og kjøre dem på dine premisser.
3/ SLM-er skinner i virkelige omgivelser:
De er effektive, raske til å reagere og trenger ikke tung infrastruktur. Perfekt for kantenheter og personvernsensitive brukstilfeller.
Med verktøy som destillasjon, beskjæring og resonnement for testtid leverer de seriøs ytelse til en brøkdel av prisen.
4/ Ny forskning beviser det.
Alan Turing Institute kjørte en 3B-parametermodell på en bærbar datamaskin. Med smart tuning matchet den nesten grensemodeller på helseresonneringsoppgaver.
Denne bølgen vokser: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, som alle skyver SLM-er inn i mainstream.

5/ Flere detaljer om denne forskningen:
6/ Vi tror på å bygge AI som er åpen, lokal og desentralisert.
SLM-er gjør det mulig. De er ikke bare lette alternativer, de er grunnlaget for skalerbare, modulære agentsystemer.
Smått er ikke et kompromiss.
Small er et kraftig designvalg.
7/ Les hele bloggen vår om dette emnet 👇
1,69K
Topp
Rangering
Favoritter