Мне действительно очень нравится @jandotai Это очень дружелюбное приложение для локального запуска LLM, отличное для конфиденциальности Я пробовал другие, такие как LM Studio и Ollama, и они неплохие, но слишком инженерные, немного слишком сложные для меня Jan простое, милое и красивое приложение, отличная альтернатива для общения без отправки ваших данных (и секретов ;)) крупным AI-поставщикам Вы даже можете запускать модели удаленных провайдеров через API, если вам это нужно! Кроме того, они очень отзывчивы к отзывам и постоянно улучшают приложение Я думаю, что есть место как для локально запущенных LLM-приложений, так и для облачных LLM-приложений, локальный запуск имеет смысл, если вы хотите говорить о очень личных вещах, терапии и т.д. Очень важно, чтобы люди могли это делать, не опасаясь, что их данные могут утечь в будущем (Я не связан с этим и не получаю за это деньги, просто мне это действительно нравится!)
👋 Jan
👋 Jan12 авг., 15:55
Представляем Jan-v1: модель 4B для веб-поиска, открытая альтернатива Perplexity Pro. В наших оценках Jan v1 демонстрирует 91% точности SimpleQA, немного превосходя Perplexity Pro, при этом полностью работая локально. Сценарии использования: - Веб-поиск - Глубокие исследования Создан на новой версии Qwen's Qwen3-4B-Thinking (до 256k длины контекста), доработан для рассуждений и использования инструментов в Jan. Вы можете запустить модель в Jan, llama.cpp или vLLM. Чтобы включить поиск в Jan, перейдите в Настройки → Экспериментальные функции → Включить, затем Настройки → MCP-серверы → включите связанный с поиском MCP, такой как Serper. Используйте модель: - Jan-v1-4B: - Jan-v1-4B-GGUF: Благодарность команде @Alibaba_Qwen за Qwen3 4B Thinking и @ggerganov за llama.cpp.
218,36K