Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jag gillar verkligen @jandotai
Det är en mycket vänlig app för att lokalt köra LLM:er, perfekt för integriteten
Jag har provat andra som LM Studio och Ollama och de är trevliga men väldigt ingenjörsbyggda, lite för svårt för mig
Jan är enkel och söt och söt och ett bra alternativ att prata med utan att skicka dina data (och hemligheter ;)) till stora AI-leverantörer
Du kan till och med köra fjärrleverantörsmodeller också via API, om du vill ha det!
De är också mycket lyhörda för feedback och förbättrar alltid appen
Jag tror att det finns utrymme för både lokalt drivna LLM-appar och moln LLM-appar, lokalt kört är vettigt om du vill prata om mycket privata saker, terapi etc. Det är verkligen viktigt att människor kan få det utan att vara rädda för att dina data kan läcka ut i framtiden
(Jag är inte ansluten eller betald, bara gillar det verkligen!)




12 aug. 15:55
Vi presenterar Jan-v1: 4B-modell för webbsökning, ett alternativ med öppen källkod till Perplexity Pro.
I våra utvärderingar levererar Jan v1 91 % SimpleQA-noggrannhet, vilket är något bättre än Perplexity Pro samtidigt som den körs helt lokalt.
Användningsområden:
- Sökning på webben
- Djup forskning
Byggd på den nya versionen av Qwens Qwen3-4B-Thinking (upp till 256k kontextlängd), finjusterad för resonemang och verktygsanvändning i januari.
Du kan köra modellen i Jan, llama.cpp eller vLLM. Om du vill aktivera sökning i januari går du till Inställningar → Experimentella funktioner → På och sedan Inställningar → MCP-servrar → aktiverar en sökrelaterad MCP som Serper.
Använd modellen:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Tack till @Alibaba_Qwen-teamet för Qwen3 4B Thinking & @ggerganov för llama.cpp.
226,54K
Topp
Rankning
Favoriter