Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Bardzo, bardzo lubię @jandotai
To bardzo przyjazna aplikacja do lokalnego uruchamiania LLM-ów, świetna dla prywatności
Próbowałem innych, takich jak LM Studio i Ollama, i są fajne, ale bardzo inżynieryjnie zbudowane, trochę za trudne dla mnie
Jan jest prosty, uroczy i ładny oraz świetną alternatywą do rozmowy bez wysyłania swoich danych (i sekretów ;)) do dużych dostawców AI
Możesz nawet uruchamiać modele dostawców zdalnych za pośrednictwem API, jeśli tego chcesz!
Są również bardzo responsywni na opinie i zawsze poprawiają aplikację
Myślę, że jest miejsce zarówno dla lokalnie uruchamianych aplikacji LLM, jak i aplikacji LLM w chmurze, lokalne uruchamianie ma sens, jeśli chcesz rozmawiać o bardzo prywatnych sprawach, terapia itd. To naprawdę ważne, aby ludzie mogli to mieć bez obaw, że ich dane mogą wycieknąć w przyszłości
(Nie jestem powiązany ani opłacany, po prostu naprawdę mi się podoba!)




12 sie, 15:55
Przedstawiamy Jan-v1: model 4B do wyszukiwania w sieci, otwartoźródłowa alternatywa dla Perplexity Pro.
W naszych ocenach, Jan v1 osiąga 91% dokładności SimpleQA, nieznacznie przewyższając Perplexity Pro, działając w pełni lokalnie.
Przykłady zastosowania:
- Wyszukiwanie w sieci
- Głębokie badania
Zbudowany na nowej wersji Qwen's Qwen3-4B-Thinking (do 256k długości kontekstu), dostosowany do rozumowania i użycia narzędzi w Jan.
Możesz uruchomić model w Jan, llama.cpp lub vLLM. Aby włączyć wyszukiwanie w Jan, przejdź do Ustawienia → Funkcje eksperymentalne → Włączone, a następnie Ustawienia → Serwery MCP → włącz powiązany z wyszukiwaniem MCP, taki jak Serper.
Użyj modelu:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Podziękowania dla zespołu @Alibaba_Qwen za Qwen3 4B Thinking i @ggerganov za llama.cpp.
218,34K
Najlepsze
Ranking
Ulubione