Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Керівник відділу продуктових @huggingface
Користувач Victor M поділився
Тепер ви можете точно налаштувати @Alibaba_Qwen Qwen-Image за допомогою AI Toolkit з 24 ГБ відеопам'яті за допомогою спеціального адаптера відновлення навченої точності, який дозволяє точно налаштовувати біт з мінімальною втратою точності. Зазначені зміни за замовчуванням мають працювати для графічних процесорів 3090/4090. Детальніше в 🧵

15,77K
Користувач Victor M поділився
Мені дуже подобається @jandotai
Це дуже дружній додаток для локального запуску LLM, який чудово підходить для конфіденційності
Я пробував інші, такі як LM Studio та Ollama, і вони гарні, але дуже інженерно створені, трохи занадто складні для мене
Ян простий, милий і симпатичний, а також чудова альтернатива для розмови, не надсилаючи свої дані (і секрети ;)) великим постачальникам штучного інтелекту
Ви навіть можете запускати моделі віддалених провайдерів через API, якщо ви цього хочете!
Крім того, вони дуже чуйно реагують на відгуки та постійно вдосконалюють додаток
Я думаю, що є місце як для локально запущених додатків LLM, так і для хмарних додатків LLM, локальний запуск має сенс, якщо ви хочете поговорити про дуже приватні речі, терапію тощо. Дуже важливо, щоб люди могли це мати, не боячись, що ваші дані можуть витекти в майбутньому
(Я не афілійований і не платний, просто дуже подобається!)



218,32K
Користувач Victor M поділився
Представляємо модель Jan-v1: 4B для веб-пошуку, альтернативу Perplexity Pro з відкритим вихідним кодом.
У наших тестах, Jan v1 забезпечує 91% точності SimpleQA, трохи перевершуючи Perplexity Pro при повністю локальній роботі.
Випадки використання:
- Пошук в Інтернеті
- Глибокі дослідження
Побудований на новій версії Qwen Qwen3-4B-Thinking (до 256k довжини контексту), доопрацьованій для міркувань та використання інструментів у січні.
Ви можете запустити модель у форматі Jan, llama.cpp або vLLM. Щоб увімкнути пошук у січні, перейдіть у меню «Налаштування» → «Експериментальні функції» → «Увімкнено», а потім «Налаштування» → сервери MCP, → активувати пов'язаний із пошуком MCP, наприклад Serper.
Використовуйте модель:
- Січень-v1-4B:
- Січень-v1-4B-GGUF:
Подяка команді @Alibaba_Qwen за Qwen3 4B Thinking & @ggerganov за llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12 серп., 06:19
Я настільки захоплений, що тепер ми можемо генерувати відео такої якості менш ніж за 30 секунд. Відкритий код для перемоги!
👇Спробуйте Wan 2.2 (з Lightning LoRA) на Hugging Face
1,18K
Користувач Victor M поділився
Представляємо GLM-4.5V: прорив у візуальному обґрунтуванні з відкритим вихідним кодом
GLM-4.5V демонструє найсучаснішу продуктивність серед моделей з відкритим вихідним кодом у своєму розмірному класі, домінуючи в 41 тесті.
Побудований на базовій моделі GLM-4.5-Air, GLM-4.5V успадкував перевірені методи від GLM-4.1V-Thinking, досягаючи ефективного масштабування за допомогою потужної 106-параметричної архітектури MoE.
Обіймаюче обличчя:
GitHub:
Інтерфейс:
Спробуйте зараз:

264,76K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги