الجميع يشاهد LLMs تهيمن على دائرة الضوء. لكن اقترب قليلا ، وهناك شيء آخر يختمر. نماذج اللغات الصغيرة (SLMs) أخف وزنا وأسرع وأكثر سهولة. بالنسبة إلى الذكاء الاصطناعي الوكيل والأنظمة اللامركزية ، قد تكون أكثر ملاءمة. إليكم السبب 🧵
2 / LLMs هي مجرد "كبيرة". تريليونات من المعلمات ، وأخصائيين عامين أقوياء ، ومكلفة للتشغيل. إنها تعمل بشكل رائع للمهام الواسعة والمفتوحة. لكنها مركزية وغير شفافة ويصعب تخصيصها. SLMs مدمجة وشفافة ومرنة. يمكنك ضبطها وتشغيلها وفقا لشروطك.
3 / تتألق SLMs في إعدادات العالم الحقيقي: إنها فعالة وسريعة الاستجابة ولا تحتاج إلى بنية تحتية ثقيلة. مثالي للأجهزة الطرفية وحالات الاستخدام الحساسة للخصوصية. باستخدام أدوات مثل التقطير والتقليم والتفكير في وقت الاختبار ، فإنها تقدم أداء جادا بجزء بسيط من التكلفة.
4 / بحث جديد يثبت ذلك. قام معهد آلان تورينج بتشغيل نموذج معلمة 3B على جهاز كمبيوتر محمول. مع الضبط الذكي ، تطابقت تقريبا مع النماذج الحدودية في مهام التفكير الصحي. هذه الموجة آخذة في الازدياد: Phi و Nemotron-H و Qwen3 و Mu و SmolLLM ، وكلها تدفع SLMs إلى الاتجاه السائد.
5 / مزيد من التفاصيل عن هذا البحث:
6 / نحن نؤمن ببناء الذكاء الاصطناعي المفتوح والمحلي واللامركزي. تجعل SLMs ذلك ممكنا. إنها ليست مجرد بدائل خفيفة الوزن ، إنها الأساس لأنظمة وكيلة قابلة للتطوير ومعيارية. الصغيرة ليست حل وسط. صغير هو خيار تصميم قوي.
7 / اقرأ مدونتنا الكاملة حول هذا الموضوع 👇
‏‎1.55‏K