المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
الجميع يشاهد LLMs تهيمن على دائرة الضوء.
لكن اقترب قليلا ، وهناك شيء آخر يختمر.
نماذج اللغات الصغيرة (SLMs) أخف وزنا وأسرع وأكثر سهولة.
بالنسبة إلى الذكاء الاصطناعي الوكيل والأنظمة اللامركزية ، قد تكون أكثر ملاءمة.
إليكم السبب 🧵

2 / LLMs هي مجرد "كبيرة".
تريليونات من المعلمات ، وأخصائيين عامين أقوياء ، ومكلفة للتشغيل.
إنها تعمل بشكل رائع للمهام الواسعة والمفتوحة. لكنها مركزية وغير شفافة ويصعب تخصيصها.
SLMs مدمجة وشفافة ومرنة. يمكنك ضبطها وتشغيلها وفقا لشروطك.
3 / تتألق SLMs في إعدادات العالم الحقيقي:
إنها فعالة وسريعة الاستجابة ولا تحتاج إلى بنية تحتية ثقيلة. مثالي للأجهزة الطرفية وحالات الاستخدام الحساسة للخصوصية.
باستخدام أدوات مثل التقطير والتقليم والتفكير في وقت الاختبار ، فإنها تقدم أداء جادا بجزء بسيط من التكلفة.
4 / بحث جديد يثبت ذلك.
قام معهد آلان تورينج بتشغيل نموذج معلمة 3B على جهاز كمبيوتر محمول. مع الضبط الذكي ، تطابقت تقريبا مع النماذج الحدودية في مهام التفكير الصحي.
هذه الموجة آخذة في الازدياد: Phi و Nemotron-H و Qwen3 و Mu و SmolLLM ، وكلها تدفع SLMs إلى الاتجاه السائد.

5 / مزيد من التفاصيل عن هذا البحث:
6 / نحن نؤمن ببناء الذكاء الاصطناعي المفتوح والمحلي واللامركزي.
تجعل SLMs ذلك ممكنا. إنها ليست مجرد بدائل خفيفة الوزن ، إنها الأساس لأنظمة وكيلة قابلة للتطوير ومعيارية.
الصغيرة ليست حل وسط.
صغير هو خيار تصميم قوي.
7 / اقرأ مدونتنا الكاملة حول هذا الموضوع 👇
1.55K
الأفضل
المُتصدِّرة
التطبيقات المفضلة