Tôi thực sự rất thích @jandotai Đây là một ứng dụng rất thân thiện để chạy LLM tại chỗ, tuyệt vời cho sự riêng tư Tôi đã thử những ứng dụng khác như LM Studio và Ollama, chúng cũng tốt nhưng được xây dựng bởi kỹ sư, hơi khó khăn một chút với tôi Jan thì đơn giản, dễ thương và đẹp, là một lựa chọn tuyệt vời để trò chuyện mà không phải gửi dữ liệu (và bí mật ;)) của bạn cho các nhà cung cấp AI lớn Bạn thậm chí có thể chạy các mô hình của nhà cung cấp từ xa qua API, nếu bạn muốn điều đó! Họ cũng rất phản hồi với ý kiến và luôn cải thiện ứng dụng Tôi nghĩ có chỗ cho cả ứng dụng LLM chạy tại chỗ và ứng dụng LLM đám mây, chạy tại chỗ có ý nghĩa nếu bạn muốn nói về những vấn đề rất riêng tư, liệu pháp, v.v. Thật sự quan trọng để mọi người có thể có điều đó mà không lo sợ dữ liệu của bạn có thể bị rò rỉ trong tương lai (Tôi không liên kết hay được trả tiền, chỉ thực sự thích nó!)
👋 Jan
👋 Jan15:55 12 thg 8
Giới thiệu Jan-v1: mô hình 4B cho tìm kiếm web, một lựa chọn mã nguồn mở thay thế cho Perplexity Pro. Trong các đánh giá của chúng tôi, Jan v1 đạt độ chính xác 91% SimpleQA, nhỉnh hơn một chút so với Perplexity Pro trong khi chạy hoàn toàn cục bộ. Các trường hợp sử dụng: - Tìm kiếm web - Nghiên cứu sâu Được xây dựng trên phiên bản mới của Qwen's Qwen3-4B-Thinking (độ dài ngữ cảnh lên đến 256k), được tinh chỉnh cho lý luận và sử dụng công cụ trong Jan. Bạn có thể chạy mô hình trong Jan, llama.cpp hoặc vLLM. Để kích hoạt tìm kiếm trong Jan, hãy vào Cài đặt → Tính năng thử nghiệm → Bật, sau đó Cài đặt → Máy chủ MCP → kích hoạt một MCP liên quan đến tìm kiếm như Serper. Sử dụng mô hình: - Jan-v1-4B: - Jan-v1-4B-GGUF: Cảm ơn đội ngũ @Alibaba_Qwen vì Qwen3 4B Thinking & @ggerganov vì llama.cpp.
218,36K