Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Kepala Produk @huggingface
Victor M memposting ulang
Anda sekarang dapat menyempurnakan @Alibaba_Qwen Qwen-Image dengan AI Toolkit dengan VRAM 24 GB menggunakan adaptor pemulihan akurasi terlatih khusus yang memungkinkan Anda menyempurnakan pada 3 bit dengan kehilangan presisi minimal. Perubahan yang ditandai pada default akan berfungsi untuk GPU 3090/4090. Lebih lanjut 🧵

15,77K
Victor M memposting ulang
Saya sangat menyukai @jandotai
Ini adalah aplikasi yang sangat ramah untuk LLM yang dijalankan secara lokal, bagus untuk privasi
Saya telah mencoba yang lain seperti LM Studio dan Ollama dan mereka bagus tetapi sangat insinyur, agak terlalu sulit bagi saya
Jan sederhana dan imut dan cantik dan merupakan alternatif yang bagus untuk diajak bicara tanpa mengirim data Anda (dan rahasia ;)) ke penyedia AI besar
Anda bahkan dapat menjalankan model penyedia jarak jauh juga melalui API, jika Anda menginginkannya!
Juga mereka sangat responsif terhadap umpan balik dan selalu meningkatkan aplikasi
Saya pikir ada ruang untuk aplikasi LLM yang dijalankan secara lokal dan aplikasi LLM cloud, dijalankan secara lokal masuk akal jika Anda ingin berbicara tentang hal-hal yang sangat pribadi, terapi, dll. Sangat penting bagi orang untuk memilikinya tanpa takut data Anda akan bocor di masa mendatang
(Saya tidak berafiliasi atau dibayar, hanya sangat menyukainya!)



218,32K
Victor M memposting ulang
Memperkenalkan model Jan-v1: 4B untuk pencarian web, alternatif sumber terbuka untuk Perplexity Pro.
Dalam evals kami, Jan v1 memberikan akurasi SimpleQA 91%, sedikit mengungguli Perplexity Pro saat berjalan sepenuhnya secara lokal.
Kasus penggunaan:
- Pencarian web
- Penelitian Mendalam
Dibangun di atas versi baru Qwen3-4B-Thinking Qwen (hingga 256k panjang konteks), disesuaikan untuk penalaran dan penggunaan alat pada bulan Jan.
Anda dapat menjalankan model dalam Jan, llama.cpp, atau vLLM. Untuk mengaktifkan pencarian pada bulan Jan, buka Pengaturan → Fitur Eksperimental → Aktif, lalu Pengaturan → Server MCP → mengaktifkan MCP terkait pencarian seperti Serper.
Gunakan modelnya:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Kredit untuk tim @Alibaba_Qwen untuk Qwen3 4B Thinking & @ggerganov untuk llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12 Agu, 06.19
Saya sangat gembira bahwa kami sekarang dapat menghasilkan video dengan kualitas ini dalam waktu kurang dari 30 detik. Sumber terbuka untuk kemenangan!
👇Coba Wan 2.2 (dengan Lightning LoRA) pada Hugging Face
1,18K
Victor M memposting ulang
Memperkenalkan GLM-4.5V: terobosan dalam penalaran visual sumber terbuka
GLM-4.5V menghadirkan kinerja canggih di antara model sumber terbuka di kelas ukurannya, mendominasi 41 tolok ukur.
Dibangun di atas model basis GLM-4.5-Air, GLM-4.5V mewarisi teknik yang telah terbukti dari GLM-4.1V-Thinking sambil mencapai penskalaan yang efektif melalui arsitektur MoE 106B parameter yang kuat.
Wajah Memeluk:
GitHub:
API:
Coba sekarang:

264,76K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal