Saya sangat menyukai @jandotai Ini adalah aplikasi yang sangat ramah untuk LLM yang dijalankan secara lokal, bagus untuk privasi Saya telah mencoba yang lain seperti LM Studio dan Ollama dan mereka bagus tetapi sangat insinyur, agak terlalu sulit bagi saya Jan sederhana dan imut dan cantik dan merupakan alternatif yang bagus untuk diajak bicara tanpa mengirim data Anda (dan rahasia ;)) ke penyedia AI besar Anda bahkan dapat menjalankan model penyedia jarak jauh juga melalui API, jika Anda menginginkannya! Juga mereka sangat responsif terhadap umpan balik dan selalu meningkatkan aplikasi Saya pikir ada ruang untuk aplikasi LLM yang dijalankan secara lokal dan aplikasi LLM cloud, dijalankan secara lokal masuk akal jika Anda ingin berbicara tentang hal-hal yang sangat pribadi, terapi, dll. Sangat penting bagi orang untuk memilikinya tanpa takut data Anda akan bocor di masa mendatang (Saya tidak berafiliasi atau dibayar, hanya sangat menyukainya!)
👋 Jan
👋 Jan12 Agu, 15.55
Memperkenalkan model Jan-v1: 4B untuk pencarian web, alternatif sumber terbuka untuk Perplexity Pro. Dalam evals kami, Jan v1 memberikan akurasi SimpleQA 91%, sedikit mengungguli Perplexity Pro saat berjalan sepenuhnya secara lokal. Kasus penggunaan: - Pencarian web - Penelitian Mendalam Dibangun di atas versi baru Qwen3-4B-Thinking Qwen (hingga 256k panjang konteks), disesuaikan untuk penalaran dan penggunaan alat pada bulan Jan. Anda dapat menjalankan model dalam Jan, llama.cpp, atau vLLM. Untuk mengaktifkan pencarian pada bulan Jan, buka Pengaturan → Fitur Eksperimental → Aktif, lalu Pengaturan → Server MCP → mengaktifkan MCP terkait pencarian seperti Serper. Gunakan modelnya: - Jan-v1-4B: - Jan-v1-4B-GGUF: Kredit untuk tim @Alibaba_Qwen untuk Qwen3 4B Thinking & @ggerganov untuk llama.cpp.
218,34K