J'aime vraiment beaucoup @jandotai C'est une application très conviviale pour exécuter localement des LLM, idéale pour la confidentialité. J'ai essayé d'autres comme LM Studio et Ollama, et elles sont bien mais très techniques, un peu trop difficiles pour moi. Jan est simple, mignonne et jolie, et c'est une excellente alternative pour discuter sans envoyer vos données (et secrets ;)) à de grands fournisseurs d'IA. Vous pouvez même exécuter des modèles de fournisseurs distants via API, si vous le souhaitez ! De plus, ils sont très réactifs aux retours et améliorent toujours l'application. Je pense qu'il y a de la place pour les applications LLM exécutées localement et celles dans le cloud, l'exécution locale a du sens si vous voulez parler de choses très privées, thérapie, etc. Il est vraiment important que les gens puissent avoir cela sans craindre que vos données ne fuient à l'avenir. (Je ne suis pas affilié ni payé, j'aime juste vraiment ça !)
👋 Jan
👋 Jan12 août, 15:55
Présentation de Jan-v1 : modèle 4B pour la recherche sur le web, une alternative open-source à Perplexity Pro. Dans nos évaluations, Jan v1 offre une précision de 91 % en SimpleQA, surpassant légèrement Perplexity Pro tout en fonctionnant entièrement en local. Cas d'utilisation : - Recherche sur le web - Recherche approfondie Construit sur la nouvelle version de Qwen's Qwen3-4B-Thinking (jusqu'à 256k de longueur de contexte), affiné pour le raisonnement et l'utilisation d'outils dans Jan. Vous pouvez exécuter le modèle dans Jan, llama.cpp ou vLLM. Pour activer la recherche dans Jan, allez dans Paramètres → Fonctionnalités expérimentales → Activé, puis Paramètres → Serveurs MCP → activez un MCP lié à la recherche tel que Serper. Utilisez le modèle : - Jan-v1-4B : - Jan-v1-4B-GGUF : Crédit à l'équipe @Alibaba_Qwen pour Qwen3 4B Thinking & @ggerganov pour llama.cpp.
218,34K