Na minha opinião, SWE-bench e T-bench são os poucos benchmarks que têm um bom sinal em termos de quanto progresso fazemos com os modelos. Este modelo funciona tão bem quanto o Qwen3 Coder e é apenas 10% pior que o GPT-5, além de ser um LLM de uso geral em vez de especializado em código.
Z.ai
Z.ai11 de ago., 11:43
Presenting the GLM-4.5 technical report!👇 This work demonstrates how we developed models that excel at reasoning, coding, and agentic tasks through a unique, multi-stage training paradigm. Key innovations include expert model iteration with self-distillation to unify capabilities, a hybrid reasoning mode for dynamic problem-solving, and a difficulty-based reinforcement learning curriculum.
28,62K