Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Kaikki katsovat, että LLM:t hallitsevat valokeilaa.
Mutta zoomaa hieman lähemmäs, ja jotain muuta on syntymässä.
Pienet kielimallit (SLM) ovat kevyempiä, nopeampia ja helppokäyttöisempiä.
Agenttitekoälyyn ja hajautettuihin järjestelmiin ne saattavat sopia paremmin.
Tässä syy 🧵

2/ LLM:t ovat vain "suuria".
Biljoonia parametreja, tehokkaita generalisteja ja kalliita käyttää.
Ne toimivat erinomaisesti laajoihin, avoimiin tehtäviin. Mutta ne ovat keskitettyjä, läpinäkymättömiä ja vaikeasti muokattavissa.
SLM:t ovat kompakteja, läpinäkyviä ja joustavia. Voit hienosäätää ja käyttää niitä omilla ehdoillasi.
3/ SLM:t loistavat todellisissa olosuhteissa:
Ne ovat tehokkaita, reagoivat nopeasti eivätkä tarvitse raskasta infrastruktuuria. Täydellinen reunalaitteisiin ja yksityisyyden kannalta herkkiin käyttötapauksiin.
Työkaluilla, kuten tislauksella, karsimisella ja testiaikaisella päättelyllä, ne tarjoavat vakavaa suorituskykyä murto-osalla kustannuksista.
4/ Uusi tutkimus todistaa sen.
Alan Turing -instituutti käytti 3B-parametrimallia kannettavalla tietokoneella. Älykkäällä virityksellä se vastasi lähes reunamalleja terveyspäättelytehtävissä.
Tämä aalto kasvaa: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, jotka kaikki työntävät SLM:t valtavirtaan.

5/ Lisätietoja tästä tutkimuksesta:
6/ Uskomme avoimen, paikallisen ja hajautetun tekoälyn rakentamiseen.
SLM:t tekevät sen mahdolliseksi. Ne eivät ole vain kevyitä vaihtoehtoja, vaan ne ovat perusta skaalautuville, modulaarisille agenttijärjestelmille.
Pieni ei ole kompromissi.
Pieni on tehokas suunnitteluvalinta.
7/ Lue koko blogimme tästä aiheesta 👇
2,71K
Johtavat
Rankkaus
Suosikit