Eu realmente gosto muito do @jandotai É um aplicativo muito amigável para executar LLMs localmente, ótimo para privacidade Eu experimentei outros como LM Studio e Ollama e eles são legais, mas muito voltados para engenheiros, um pouco difíceis demais para mim O Jan é simples, fofo e bonito, e uma ótima alternativa para conversar sem enviar seus dados (e segredos ;)) para grandes provedores de IA Você pode até executar modelos de provedores remotos também via API, se você quiser isso! Além disso, eles são muito responsivos ao feedback e estão sempre melhorando o aplicativo Acho que há espaço tanto para aplicativos LLM executados localmente quanto para aplicativos LLM em nuvem, executar localmente faz sentido se você quiser falar sobre coisas muito privadas, terapia, etc. É realmente importante que as pessoas possam ter isso sem temer que seus dados possam vazar no futuro (Eu não sou afiliado nem pago, apenas realmente gosto!)
👋 Jan
👋 Jan12/08, 15:55
Apresentando Jan-v1: modelo 4B para busca na web, uma alternativa de código aberto ao Perplexity Pro. Em nossas avaliações, Jan v1 entrega 91% de precisão no SimpleQA, superando ligeiramente o Perplexity Pro enquanto roda totalmente localmente. Casos de uso: - Busca na web - Pesquisa profunda Construído na nova versão do Qwen's Qwen3-4B-Thinking (até 256k de comprimento de contexto), ajustado para raciocínio e uso de ferramentas no Jan. Você pode executar o modelo no Jan, llama.cpp ou vLLM. Para habilitar a busca no Jan, vá para Configurações → Recursos Experimentais → Ativar, depois Configurações → Servidores MCP → habilite um MCP relacionado à busca, como o Serper. Use o modelo: - Jan-v1-4B: - Jan-v1-4B-GGUF: Créditos à equipe @Alibaba_Qwen pelo Qwen3 4B Thinking e @ggerganov pelo llama.cpp.
218,34K