Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Vedoucí produktového @huggingface
Victor M repostoval/a
Nyní můžete Qwen-Image jemně vylad@Alibaba_Qwen it pomocí sady nástrojů AI Toolkit s 24 GB paměti VRAM pomocí speciálně vyškoleného adaptéru pro obnovení přesnosti, který vám umožní jemně doladit na 3 bity s minimální ztrátou přesnosti. Označené změny výchozích hodnot by měly fungovat pro grafické procesory 3090/4090. Více v sekci 🧵

14,67K
Victor M repostoval/a
Opravdu se mi líbí @jandotai
Je to velmi přátelská aplikace pro místní spouštění LLM, skvělá pro soukromí
Zkoušel jsem i jiné jako LM Studio a Ollama a jsou pěkné, ale velmi inženýrsky postavené, pro mě trochu příliš obtížné
Jan je jednoduchý, roztomilý a hezký a je skvělou alternativou, se kterou si můžete promluvit, aniž byste museli posílat svá data (a tajemství ;)) velkým poskytovatelům umělé inteligence.
Pokud o to stojíte, můžete dokonce spouštět modely vzdálených poskytovatelů prostřednictvím API!
Také velmi reagují na zpětnou vazbu a neustále vylepšují aplikaci
Myslím, že je zde prostor jak pro lokálně provozované LLM aplikace, tak pro cloudové LLM aplikace, lokální provozování má smysl, pokud chcete mluvit o velmi soukromých věcech, terapii atd. Je opravdu důležité, aby to lidé mohli mít, aniž by se museli obávat, že by vaše data mohla v budoucnu uniknout
(Nejsem přidružený ani placený, jen se mi to opravdu líbí!)



208,22K
Victor M repostoval/a
Představujeme Jan-v1: Model 4B pro webové vyhledávání, open-source alternativu k Perplexity Pro.
V našich hodnoceních Jan v1 přináší 91% přesnost SimpleQA, což mírně překonává Perplexity Pro při plném lokálním provozu.
Případy použití:
- Vyhledávání na webu
- Hluboký výzkum
Vychází z nové verze Qwen Qwen3-4B-Thinking (až 256 tisíc dat kontextu), která byla v lednu vyladěna pro uvažování a používání nástrojů.
Model můžete spustit v lednovém, llama.cpp nebo vLLM. Chcete-li povolit vyhledávání v lednu, přejděte do Nastavení → Experimentální funkce → Zapnuto, poté Nastavení → Servery MCP → povolte MCP související s vyhledáváním, jako je Serper.
Použijte model:
- leden-v1-4B:
- Jan-v1-4B-GGUF:
Poděkování týmu @Alibaba_Qwen za Qwen3 4B Thinking & @ggerganov za llama.cpp.
512,5K
Qwen-obraz + wan-2.2 = 🔥

Victor M12. 8. 06:19
Jsem tak nadšený, že nyní můžeme generovat videa v této kvalitě za méně než 30 sekund. Open source pro výhru!
👇Vyzkoušejte Wan 2.2 (s Lightning LoRA) na Hugging Face
1,15K
Victor M repostoval/a
Představujeme GLM-4.5V: průlom ve vizuálním uvažování s otevřeným zdrojovým kódem
GLM-4.5V poskytuje nejmodernější výkon mezi open-source modely ve své velikostní třídě a dominuje ve 41 benchmarkech.
GLM-4.5V, postavený na základním modelu GLM-4.5-Air, zdědil osvědčené techniky z GLM-4.1V-Thinking a zároveň dosáhl efektivního škálování prostřednictvím výkonné architektury MoE s parametry 106B.
Objímající obličej:
Zdroj:
Rozhraní api:
Vyzkoušejte to nyní:

260,42K
Top
Hodnocení
Oblíbené
Co je v trendu on-chain
Populární na X
Nejvyšší finanční vklady v poslední době
Nejpozoruhodnější