Kami @Zai_org sangat senang dengan open-source GLM-4.1V-9B-Thinking, VLM yang dapat berpikir dengan CoT panjang. SoTA dalam VLM <10B, sebanding dengan Qwen-2.5-VL-72B dalam 18 tugas. Satu RL untuk menguasai semuanya! Rincian - Laporan teknis: -Kode:
2,97K