Opravdu se mi líbí @jandotai Je to velmi přátelská aplikace pro místní spouštění LLM, skvělá pro soukromí Zkoušel jsem i jiné jako LM Studio a Ollama a jsou pěkné, ale velmi inženýrsky postavené, pro mě trochu příliš obtížné Jan je jednoduchý, roztomilý a hezký a je skvělou alternativou, se kterou si můžete promluvit, aniž byste museli posílat svá data (a tajemství ;)) velkým poskytovatelům umělé inteligence. Pokud o to stojíte, můžete dokonce spouštět modely vzdálených poskytovatelů prostřednictvím API! Také velmi reagují na zpětnou vazbu a neustále vylepšují aplikaci Myslím, že je zde prostor jak pro lokálně provozované LLM aplikace, tak pro cloudové LLM aplikace, lokální provozování má smysl, pokud chcete mluvit o velmi soukromých věcech, terapii atd. Je opravdu důležité, aby to lidé mohli mít, aniž by se museli obávat, že by vaše data mohla v budoucnu uniknout (Nejsem přidružený ani placený, jen se mi to opravdu líbí!)
👋 Jan
👋 Jan12. 8. 15:55
Představujeme Jan-v1: Model 4B pro webové vyhledávání, open-source alternativu k Perplexity Pro. V našich hodnoceních Jan v1 přináší 91% přesnost SimpleQA, což mírně překonává Perplexity Pro při plném lokálním provozu. Případy použití: - Vyhledávání na webu - Hluboký výzkum Vychází z nové verze Qwen Qwen3-4B-Thinking (až 256 tisíc dat kontextu), která byla v lednu vyladěna pro uvažování a používání nástrojů. Model můžete spustit v lednovém, llama.cpp nebo vLLM. Chcete-li povolit vyhledávání v lednu, přejděte do Nastavení → Experimentální funkce → Zapnuto, poté Nastavení → Servery MCP → povolte MCP související s vyhledáváním, jako je Serper. Použijte model: - leden-v1-4B: - Jan-v1-4B-GGUF: Poděkování týmu @Alibaba_Qwen za Qwen3 4B Thinking & @ggerganov za llama.cpp.
218,32K