Mi piace davvero tanto @jandotai È un'app molto amichevole per eseguire localmente LLM, ottima per la privacy Ho provato altre come LM Studio e Ollama e sono carine, ma molto ingegnerizzate, un po' troppo difficili per me Jan è semplice, carina e bella ed è una grande alternativa per parlare senza inviare i tuoi dati (e segreti ;)) ai grandi fornitori di intelligenza artificiale Puoi anche eseguire modelli di fornitori remoti tramite API, se lo desideri! Inoltre, sono molto reattivi ai feedback e stanno sempre migliorando l'app Penso che ci sia spazio sia per le app LLM eseguite localmente che per quelle in cloud, eseguite localmente ha senso se vuoi parlare di cose molto private, terapia ecc. È davvero importante che le persone possano avere questo senza temere che i loro dati possano trapelare in futuro (Non sono affiliato né pagato, mi piace davvero!)
👋 Jan
👋 Jan12 ago, 15:55
Presentiamo Jan-v1: modello 4B per la ricerca web, un'alternativa open-source a Perplexity Pro. Nei nostri test, Jan v1 offre un'accuratezza del 91% in SimpleQA, superando leggermente Perplexity Pro mentre funziona completamente in locale. Casi d'uso: - Ricerca web - Ricerca approfondita Costruito sulla nuova versione di Qwen's Qwen3-4B-Thinking (fino a 256k di lunghezza del contesto), ottimizzato per il ragionamento e l'uso degli strumenti in Jan. Puoi eseguire il modello in Jan, llama.cpp o vLLM. Per abilitare la ricerca in Jan, vai su Impostazioni → Funzioni Sperimentali → Attiva, poi Impostazioni → Server MCP → abilita un MCP relativo alla ricerca come Serper. Usa il modello: - Jan-v1-4B: - Jan-v1-4B-GGUF: Credito al team @Alibaba_Qwen per Qwen3 4B Thinking e a @ggerganov per llama.cpp.
218,33K