Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mi piace davvero tanto @jandotai
È un'app molto amichevole per eseguire localmente LLM, ottima per la privacy
Ho provato altre come LM Studio e Ollama e sono carine, ma molto ingegnerizzate, un po' troppo difficili per me
Jan è semplice, carina e bella ed è una grande alternativa per parlare senza inviare i tuoi dati (e segreti ;)) ai grandi fornitori di intelligenza artificiale
Puoi anche eseguire modelli di fornitori remoti tramite API, se lo desideri!
Inoltre, sono molto reattivi ai feedback e stanno sempre migliorando l'app
Penso che ci sia spazio sia per le app LLM eseguite localmente che per quelle in cloud, eseguite localmente ha senso se vuoi parlare di cose molto private, terapia ecc. È davvero importante che le persone possano avere questo senza temere che i loro dati possano trapelare in futuro
(Non sono affiliato né pagato, mi piace davvero!)




12 ago, 15:55
Presentiamo Jan-v1: modello 4B per la ricerca web, un'alternativa open-source a Perplexity Pro.
Nei nostri test, Jan v1 offre un'accuratezza del 91% in SimpleQA, superando leggermente Perplexity Pro mentre funziona completamente in locale.
Casi d'uso:
- Ricerca web
- Ricerca approfondita
Costruito sulla nuova versione di Qwen's Qwen3-4B-Thinking (fino a 256k di lunghezza del contesto), ottimizzato per il ragionamento e l'uso degli strumenti in Jan.
Puoi eseguire il modello in Jan, llama.cpp o vLLM. Per abilitare la ricerca in Jan, vai su Impostazioni → Funzioni Sperimentali → Attiva, poi Impostazioni → Server MCP → abilita un MCP relativo alla ricerca come Serper.
Usa il modello:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Credito al team @Alibaba_Qwen per Qwen3 4B Thinking e a @ggerganov per llama.cpp.
218,33K
Principali
Ranking
Preferiti