Jeg liker virkelig @jandotai Det er en veldig vennlig app for lokalt å kjøre LLM-er, flott for personvernet Jeg har prøvd andre som LM Studio og Ollama, og de er fine, men veldig ingeniørbygget, litt for vanskelige for meg Jan er enkel og søt og pen og et flott alternativ å snakke med uten å sende dataene dine (og hemmeligheter ;)) til store AI-leverandører Du kan til og med kjøre eksterne leverandørmodeller også via API, hvis du ønsker det! De er også veldig lydhøre for tilbakemeldinger og forbedrer alltid appen Jeg tror det er plass til både lokalt drevne LLM-apper og sky-LLM-apper, lokalt drevet gir mening hvis du vil snakke om veldig private ting, terapi osv. Det er veldig viktig at folk kan ha det uten å frykte at dataene dine kan lekke i fremtiden (Jeg er ikke tilknyttet eller betalt, bare liker det virkelig!)
👋 Jan
👋 Jan12. aug., 15:55
Vi introduserer Jan-v1: 4B-modellen for nettsøk, et åpen kildekode-alternativ til Perplexity Pro. I våre evalueringer leverer Jan v1 91 % SimpleQA-nøyaktighet, noe bedre enn Perplexity Pro mens den kjører helt lokalt. Brukstilfeller: - Nettsøk - Dyp forskning Bygget på den nye versjonen av Qwens Qwen3-4B-Thinking (opptil 256k kontekstlengde), finjustert for resonnement og verktøybruk i januar. Du kan kjøre modellen i Jan, llama.cpp eller vLLM. For å aktivere søk i januar, gå til Innstillinger → eksperimentelle funksjoner → På, deretter Innstillinger → MCP-servere → aktivere en søkerelatert MCP som Serper. Bruk modellen: - Jan-v1-4B: - Jan-v1-4B-GGUF: Takk til @Alibaba_Qwen-teamet for Qwen3 4B Thinking & @ggerganov for llama.cpp.
218,34K