Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Semua orang menyaksikan LLM mendominasi sorotan.
Tapi perbesar sedikit lebih dekat, dan sesuatu yang lain sedang terjadi.
Model Bahasa Kecil (SLM) lebih ringan, lebih cepat, dan lebih mudah diakses.
Untuk AI agen dan sistem terdesentralisasi, mereka mungkin lebih cocok.
Inilah alasannya 🧵

2/ LLM hanya "besar".
Triliunan parameter, generalis yang kuat, dan mahal untuk dijalankan.
Mereka bekerja dengan baik untuk tugas yang luas dan terbuka. Tapi mereka terpusat, buram, dan sulit disesuaikan.
SLM kompak, transparan, dan fleksibel. Anda dapat menyempurnakan dan menjalankannya sesuai keinginan Anda.
3/ SLM bersinar dalam pengaturan dunia nyata:
Mereka efisien, cepat merespons, dan tidak memerlukan infrastruktur yang berat. Sempurna untuk perangkat edge dan kasus penggunaan yang sensitif terhadap privasi.
Dengan alat seperti penyulingan, pemangkasan, dan penalaran waktu pengujian, mereka memberikan kinerja yang serius dengan biaya yang lebih murah.
4/ Penelitian baru membuktikannya.
Alan Turing Institute menjalankan model parameter 3B pada laptop. Dengan penyetelan cerdas, hampir cocok dengan model perbatasan pada tugas penalaran kesehatan.
Gelombang ini berkembang: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, semuanya mendorong SLM ke arus utama.

5/ Detail lebih lanjut dari penelitian ini:
6/ Kami percaya dalam membangun AI yang terbuka, lokal, dan terdesentralisasi.
SLM memungkinkan hal itu. Mereka bukan hanya alternatif ringan, mereka adalah dasar untuk sistem agen modular yang dapat diskalakan.
Kecil bukanlah kompromi.
Kecil adalah pilihan desain yang kuat.
7/ Baca blog lengkap kami tentang topik 👇 ini
1,72K
Teratas
Peringkat
Favorit