A DeepSeek acabou de realizar o tipo de atualização que todo modelo de Reasoning fingiu ter. Em vez de despejar uma longa cadeia de pensamentos e esperar que faça sentido, DeepSeek Math V2 faz uma investigação completa sobre sua própria lógica. Ele constrói uma prova, ataca, verifica o ataque, verifica o checker, corrige as falhas e faz loops até não conseguir mais se quebrar. Essa única ideia mudou completamente seu desempenho. Aqui está o que esse nível de autoanálise produziu: • Desempenho de nível Ouro na IMO 2025 • Desempenho de nível ouro no CMO 2024 • 118/120 no Putnam 2024, a maior pontuação reportada • Melhores resultados que GPT-5 Thinking e Gemini 2.5 Pro nas categorias mais difíceis O segredo não é a escama. É a arquitetura ao redor do modelo: — um verificador que caça lacunas lógicas — um meta-verificador que questiona o verificador — um gerador de provas condicionado a evitar raciocínio fraco — um ciclo que força cada parte do sistema a ficar mais nítida O processo funciona como um moedor: - Produzir uma prova - Teste - Teste o testador - Reparar o raciocínio -Repetir Eles miraram na verdadeira questão do raciocínio matemático: um modelo pode acertar na resposta pelos motivos errados. Então, o DeepSeek treinou um verificador que pontua raciocínio, não resultados....