Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Мне действительно очень нравится @jandotai
Это очень дружелюбное приложение для локального запуска LLM, отличное для конфиденциальности
Я пробовал другие, такие как LM Studio и Ollama, и они неплохие, но слишком инженерные, немного слишком сложные для меня
Jan простое, милое и красивое приложение, отличная альтернатива для общения без отправки ваших данных (и секретов ;)) крупным AI-поставщикам
Вы даже можете запускать модели удаленных провайдеров через API, если вам это нужно!
Кроме того, они очень отзывчивы к отзывам и постоянно улучшают приложение
Я думаю, что есть место как для локально запущенных LLM-приложений, так и для облачных LLM-приложений, локальный запуск имеет смысл, если вы хотите говорить о очень личных вещах, терапии и т.д. Очень важно, чтобы люди могли это делать, не опасаясь, что их данные могут утечь в будущем
(Я не связан с этим и не получаю за это деньги, просто мне это действительно нравится!)




12 авг., 15:55
Представляем Jan-v1: модель 4B для веб-поиска, открытая альтернатива Perplexity Pro.
В наших оценках Jan v1 демонстрирует 91% точности SimpleQA, немного превосходя Perplexity Pro, при этом полностью работая локально.
Сценарии использования:
- Веб-поиск
- Глубокие исследования
Создан на новой версии Qwen's Qwen3-4B-Thinking (до 256k длины контекста), доработан для рассуждений и использования инструментов в Jan.
Вы можете запустить модель в Jan, llama.cpp или vLLM. Чтобы включить поиск в Jan, перейдите в Настройки → Экспериментальные функции → Включить, затем Настройки → MCP-серверы → включите связанный с поиском MCP, такой как Serper.
Используйте модель:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Благодарность команде @Alibaba_Qwen за Qwen3 4B Thinking и @ggerganov за llama.cpp.
218,36K
Топ
Рейтинг
Избранное