أنا حقا أحب @jandotai إنه تطبيق ودود للغاية لتشغيل LLMs محليا ، وهو رائع للخصوصية لقد جربت آخرين مثل LM Studio و Ollama وهم لطيفون ولكنهم مبنون من قبل المهندسين للغاية ، وصعب بعض الشيء بالنسبة لي Jan بسيط ولطيف وجميل وبديل رائع للتحدث معه دون إرسال بياناتك (وأسرارك ;)) إلى مزودي الذكاء الاصطناعي الكبار يمكنك حتى تشغيل نماذج المزودين عن بعد أيضا عبر واجهة برمجة التطبيقات ، إذا كنت تريد ذلك! كما أنهم يستجيبون للغاية للتعليقات ويحسنون التطبيق دائما أعتقد أن هناك مساحة لكل من تطبيقات LLM التي يتم تشغيلها محليا وتطبيقات LLM السحابية ، والتشغيل محليا أمر منطقي إذا كنت تريد التحدث عن أشياء خاصة جدا ، والعلاج وما إلى ذلك. من المهم حقا أن يحصل الأشخاص على ذلك دون خوف من تسرب بياناتك في المستقبل (أنا لست تابعا أو مدفوعا ، فقط أحب ذلك حقا!)
👋 Jan
👋 Jan‏12 أغسطس، 15:55
نقدم لكم Jan-v1: نموذج 4B لبحث الويب ، وهو بديل مفتوح المصدر ل Perplexity Pro. في evals الخاصة بنا ، يوفر Jan v1 دقة SimpleQA بنسبة 91٪ ، متفوقا قليلا على Perplexity Pro أثناء التشغيل محليا بالكامل. حالات الاستخدام: - البحث على الويب - البحث العميق مبني على الإصدار الجديد من Qwen's Qwen3-4B-Thinking (يصل طول السياق إلى 256 كيلوبايت) ، تم ضبطه بدقة للتفكير واستخدام الأداة في يناير. يمكنك تشغيل النموذج في يناير أو llama.cpp أو vLLM. لتمكين البحث في يناير، انتقل إلى الإعدادات → الميزات التجريبية → تشغيل، ثم → تمكين الإعدادات → خوادم MCP لتمكين MCP مرتبط بالبحث مثل Serper. استخدم النموذج: - يناير v1-4B: - يناير v1-4B-GGUF: الفضل في فريق @Alibaba_Qwen ل Qwen3 4B Thinking & @ggerganov for llama.cpp.
‏‎218.33‏K