Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jeg liker virkelig @jandotai
Det er en veldig vennlig app for lokalt å kjøre LLM-er, flott for personvernet
Jeg har prøvd andre som LM Studio og Ollama, og de er fine, men veldig ingeniørbygget, litt for vanskelige for meg
Jan er enkel og søt og pen og et flott alternativ å snakke med uten å sende dataene dine (og hemmeligheter ;)) til store AI-leverandører
Du kan til og med kjøre eksterne leverandørmodeller også via API, hvis du ønsker det!
De er også veldig lydhøre for tilbakemeldinger og forbedrer alltid appen
Jeg tror det er plass til både lokalt drevne LLM-apper og sky-LLM-apper, lokalt drevet gir mening hvis du vil snakke om veldig private ting, terapi osv. Det er veldig viktig at folk kan ha det uten å frykte at dataene dine kan lekke i fremtiden
(Jeg er ikke tilknyttet eller betalt, bare liker det virkelig!)




12. aug., 15:55
Vi introduserer Jan-v1: 4B-modellen for nettsøk, et åpen kildekode-alternativ til Perplexity Pro.
I våre evalueringer leverer Jan v1 91 % SimpleQA-nøyaktighet, noe bedre enn Perplexity Pro mens den kjører helt lokalt.
Brukstilfeller:
- Nettsøk
- Dyp forskning
Bygget på den nye versjonen av Qwens Qwen3-4B-Thinking (opptil 256k kontekstlengde), finjustert for resonnement og verktøybruk i januar.
Du kan kjøre modellen i Jan, llama.cpp eller vLLM. For å aktivere søk i januar, gå til Innstillinger → eksperimentelle funksjoner → På, deretter Innstillinger → MCP-servere → aktivere en søkerelatert MCP som Serper.
Bruk modellen:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Takk til @Alibaba_Qwen-teamet for Qwen3 4B Thinking & @ggerganov for llama.cpp.
218,34K
Topp
Rangering
Favoritter