Realmente me gusta mucho @jandotai Es una aplicación muy amigable para ejecutar LLM localmente, ideal para la privacidad He probado otros como LM Studio y Ollama y son agradables pero muy construidos por ingenieros, un poco demasiado difíciles para mí Jan es simple, lindo y bonito y una excelente alternativa para hablar sin enviar sus datos (y secretos ;)) a grandes proveedores de IA Incluso puede ejecutar modelos de proveedores remotos a través de API, ¡si lo desea! También son muy receptivos a los comentarios y siempre mejoran la aplicación Creo que hay espacio tanto para aplicaciones LLM ejecutadas localmente como para aplicaciones LLM en la nube, las aplicaciones LLM ejecutadas localmente tienen sentido si quieres hablar de cosas muy privadas, terapia, etc. Es muy importante que las personas puedan tener eso sin temor a que sus datos se filtren en el futuro (No estoy afiliado ni pagado, ¡simplemente me gusta!)
👋 Jan
👋 Jan12 ago, 15:55
Presentamos Jan-v1: modelo 4B para búsqueda web, una alternativa de código abierto a Perplexity Pro. En nuestras evaluaciones, Jan v1 ofrece una precisión de SimpleQA del 91%, superando ligeramente a Perplexity Pro mientras se ejecuta completamente localmente. Casos de uso: - Búsqueda web - Investigación profunda Construido sobre la nueva versión de Qwen's Qwen3-4B-Thinking (hasta 256k de longitud de contexto), ajustado para el razonamiento y el uso de herramientas en enero. Puede ejecutar el modelo en enero, llama.cpp o vLLM. Para habilitar la búsqueda en enero, vaya a Configuración → Funciones experimentales → Activado, luego Configuración → Servidores MCP → habilitar un MCP relacionado con la búsqueda como Serper. Utilice el modelo: - Enero-v1-4B: - Enero-v1-4B-GGUF: Crédito al equipo de @Alibaba_Qwen por Qwen3 4B Thinking & @ggerganov por llama.cpp.
218.33K