Jag gillar verkligen @jandotai Det är en mycket vänlig app för att lokalt köra LLM:er, perfekt för integriteten Jag har provat andra som LM Studio och Ollama och de är trevliga men väldigt ingenjörsbyggda, lite för svårt för mig Jan är enkel och söt och söt och ett bra alternativ att prata med utan att skicka dina data (och hemligheter ;)) till stora AI-leverantörer Du kan till och med köra fjärrleverantörsmodeller också via API, om du vill ha det! De är också mycket lyhörda för feedback och förbättrar alltid appen Jag tror att det finns utrymme för både lokalt drivna LLM-appar och moln LLM-appar, lokalt kört är vettigt om du vill prata om mycket privata saker, terapi etc. Det är verkligen viktigt att människor kan få det utan att vara rädda för att dina data kan läcka ut i framtiden (Jag är inte ansluten eller betald, bara gillar det verkligen!)
👋 Jan
👋 Jan12 aug. 15:55
Vi presenterar Jan-v1: 4B-modell för webbsökning, ett alternativ med öppen källkod till Perplexity Pro. I våra utvärderingar levererar Jan v1 91 % SimpleQA-noggrannhet, vilket är något bättre än Perplexity Pro samtidigt som den körs helt lokalt. Användningsområden: - Sökning på webben - Djup forskning Byggd på den nya versionen av Qwens Qwen3-4B-Thinking (upp till 256k kontextlängd), finjusterad för resonemang och verktygsanvändning i januari. Du kan köra modellen i Jan, llama.cpp eller vLLM. Om du vill aktivera sökning i januari går du till Inställningar → Experimentella funktioner → På och sedan Inställningar → MCP-servrar → aktiverar en sökrelaterad MCP som Serper. Använd modellen: - Jan-v1-4B: - Jan-v1-4B-GGUF: Tack till @Alibaba_Qwen-teamet för Qwen3 4B Thinking & @ggerganov för llama.cpp.
226,54K