المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
أنا حقا أحب @jandotai
إنه تطبيق ودود للغاية لتشغيل LLMs محليا ، وهو رائع للخصوصية
لقد جربت آخرين مثل LM Studio و Ollama وهم لطيفون ولكنهم مبنون من قبل المهندسين للغاية ، وصعب بعض الشيء بالنسبة لي
Jan بسيط ولطيف وجميل وبديل رائع للتحدث معه دون إرسال بياناتك (وأسرارك ;)) إلى مزودي الذكاء الاصطناعي الكبار
يمكنك حتى تشغيل نماذج المزودين عن بعد أيضا عبر واجهة برمجة التطبيقات ، إذا كنت تريد ذلك!
كما أنهم يستجيبون للغاية للتعليقات ويحسنون التطبيق دائما
أعتقد أن هناك مساحة لكل من تطبيقات LLM التي يتم تشغيلها محليا وتطبيقات LLM السحابية ، والتشغيل محليا أمر منطقي إذا كنت تريد التحدث عن أشياء خاصة جدا ، والعلاج وما إلى ذلك. من المهم حقا أن يحصل الأشخاص على ذلك دون خوف من تسرب بياناتك في المستقبل
(أنا لست تابعا أو مدفوعا ، فقط أحب ذلك حقا!)




12 أغسطس، 15:55
نقدم لكم Jan-v1: نموذج 4B لبحث الويب ، وهو بديل مفتوح المصدر ل Perplexity Pro.
في evals الخاصة بنا ، يوفر Jan v1 دقة SimpleQA بنسبة 91٪ ، متفوقا قليلا على Perplexity Pro أثناء التشغيل محليا بالكامل.
حالات الاستخدام:
- البحث على الويب
- البحث العميق
مبني على الإصدار الجديد من Qwen's Qwen3-4B-Thinking (يصل طول السياق إلى 256 كيلوبايت) ، تم ضبطه بدقة للتفكير واستخدام الأداة في يناير.
يمكنك تشغيل النموذج في يناير أو llama.cpp أو vLLM. لتمكين البحث في يناير، انتقل إلى الإعدادات → الميزات التجريبية → تشغيل، ثم → تمكين الإعدادات → خوادم MCP لتمكين MCP مرتبط بالبحث مثل Serper.
استخدم النموذج:
- يناير v1-4B:
- يناير v1-4B-GGUF:
الفضل في فريق @Alibaba_Qwen ل Qwen3 4B Thinking & @ggerganov for llama.cpp.
218.33K
الأفضل
المُتصدِّرة
التطبيقات المفضلة