Eu realmente gosto @jandotai É um aplicativo muito amigável para executar LLMs localmente, ótimo para privacidade Eu tentei outros como LM Studio e Ollama e eles são bons, mas muito construídos por engenheiros, um pouco difíceis demais para mim Jan é simples, fofo e bonito e uma ótima alternativa para conversar sem enviar seus dados (e segredos ;)) para grandes provedores de IA Você também pode executar modelos de provedores remotos via API, se quiser! Além disso, eles são muito responsivos ao feedback e sempre melhoram o aplicativo Acho que há espaço para aplicativos LLM executados localmente e aplicativos LLM em nuvem, executados localmente faz sentido se você quiser falar sobre coisas muito privadas, terapia etc. É muito importante que as pessoas possam ter isso sem temer que seus dados possam vazar no futuro (Eu não sou afiliado ou pago, apenas gosto muito!)
👋 Jan
👋 Jan12 de ago., 15:55
Apresentando Jan-v1: modelo 4B para pesquisa na web, uma alternativa de código aberto ao Perplexity Pro. Em nossas avaliações, o Jan v1 oferece 91% de precisão do SimpleQA, superando ligeiramente o Perplexity Pro durante a execução totalmente local. Casos de uso: - Pesquisa na Web - Pesquisa Profunda Construído na nova versão do Qwen3-4B-Thinking da Qwen (até 256k de comprimento de contexto), ajustado para raciocínio e uso de ferramentas em janeiro. Você pode executar o modelo em Jan, llama.cpp ou vLLM. Para ativar a pesquisa em janeiro, vá para Configurações → Recursos experimentais → Ativado e, em seguida, Configurações → servidores MCP → ativar um MCP relacionado à pesquisa, como Serper. Use o modelo: - Jan-v1-4B: - Jan-v1-4B-GGUF: Crédito à equipe @Alibaba_Qwen para Qwen3 4B Thinking & @ggerganov para llama.cpp.
218,33K