Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Мені дуже подобається @jandotai
Це дуже дружній додаток для локального запуску LLM, який чудово підходить для конфіденційності
Я пробував інші, такі як LM Studio та Ollama, і вони гарні, але дуже інженерно створені, трохи занадто складні для мене
Ян простий, милий і симпатичний, а також чудова альтернатива для розмови, не надсилаючи свої дані (і секрети ;)) великим постачальникам штучного інтелекту
Ви навіть можете запускати моделі віддалених провайдерів через API, якщо ви цього хочете!
Крім того, вони дуже чуйно реагують на відгуки та постійно вдосконалюють додаток
Я думаю, що є місце як для локально запущених додатків LLM, так і для хмарних додатків LLM, локальний запуск має сенс, якщо ви хочете поговорити про дуже приватні речі, терапію тощо. Дуже важливо, щоб люди могли це мати, не боячись, що ваші дані можуть витекти в майбутньому
(Я не афілійований і не платний, просто дуже подобається!)




12 серп., 15:55
Представляємо модель Jan-v1: 4B для веб-пошуку, альтернативу Perplexity Pro з відкритим вихідним кодом.
У наших тестах, Jan v1 забезпечує 91% точності SimpleQA, трохи перевершуючи Perplexity Pro при повністю локальній роботі.
Випадки використання:
- Пошук в Інтернеті
- Глибокі дослідження
Побудований на новій версії Qwen Qwen3-4B-Thinking (до 256k довжини контексту), доопрацьованій для міркувань та використання інструментів у січні.
Ви можете запустити модель у форматі Jan, llama.cpp або vLLM. Щоб увімкнути пошук у січні, перейдіть у меню «Налаштування» → «Експериментальні функції» → «Увімкнено», а потім «Налаштування» → сервери MCP, → активувати пов'язаний із пошуком MCP, наприклад Serper.
Використовуйте модель:
- Січень-v1-4B:
- Січень-v1-4B-GGUF:
Подяка команді @Alibaba_Qwen за Qwen3 4B Thinking & @ggerganov за llama.cpp.
218,33K
Найкращі
Рейтинг
Вибране