Bardzo, bardzo lubię @jandotai To bardzo przyjazna aplikacja do lokalnego uruchamiania LLM-ów, świetna dla prywatności Próbowałem innych, takich jak LM Studio i Ollama, i są fajne, ale bardzo inżynieryjnie zbudowane, trochę za trudne dla mnie Jan jest prosty, uroczy i ładny oraz świetną alternatywą do rozmowy bez wysyłania swoich danych (i sekretów ;)) do dużych dostawców AI Możesz nawet uruchamiać modele dostawców zdalnych za pośrednictwem API, jeśli tego chcesz! Są również bardzo responsywni na opinie i zawsze poprawiają aplikację Myślę, że jest miejsce zarówno dla lokalnie uruchamianych aplikacji LLM, jak i aplikacji LLM w chmurze, lokalne uruchamianie ma sens, jeśli chcesz rozmawiać o bardzo prywatnych sprawach, terapia itd. To naprawdę ważne, aby ludzie mogli to mieć bez obaw, że ich dane mogą wycieknąć w przyszłości (Nie jestem powiązany ani opłacany, po prostu naprawdę mi się podoba!)
👋 Jan
👋 Jan12 sie, 15:55
Przedstawiamy Jan-v1: model 4B do wyszukiwania w sieci, otwartoźródłowa alternatywa dla Perplexity Pro. W naszych ocenach, Jan v1 osiąga 91% dokładności SimpleQA, nieznacznie przewyższając Perplexity Pro, działając w pełni lokalnie. Przykłady zastosowania: - Wyszukiwanie w sieci - Głębokie badania Zbudowany na nowej wersji Qwen's Qwen3-4B-Thinking (do 256k długości kontekstu), dostosowany do rozumowania i użycia narzędzi w Jan. Możesz uruchomić model w Jan, llama.cpp lub vLLM. Aby włączyć wyszukiwanie w Jan, przejdź do Ustawienia → Funkcje eksperymentalne → Włączone, a następnie Ustawienia → Serwery MCP → włącz powiązany z wyszukiwaniem MCP, taki jak Serper. Użyj modelu: - Jan-v1-4B: - Jan-v1-4B-GGUF: Podziękowania dla zespołu @Alibaba_Qwen za Qwen3 4B Thinking i @ggerganov za llama.cpp.
218,34K