Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A DeepSeek acabou de realizar o tipo de atualização que todo modelo de Reasoning fingiu ter.
Em vez de despejar uma longa cadeia de pensamentos e esperar que faça sentido, DeepSeek Math V2 faz uma investigação completa sobre sua própria lógica. Ele constrói uma prova, ataca, verifica o ataque, verifica o checker, corrige as falhas e faz loops até não conseguir mais se quebrar.
Essa única ideia mudou completamente seu desempenho.
Aqui está o que esse nível de autoanálise produziu:
• Desempenho de nível Ouro na IMO 2025
• Desempenho de nível ouro no CMO 2024
• 118/120 no Putnam 2024, a maior pontuação reportada
• Melhores resultados que GPT-5 Thinking e Gemini 2.5 Pro nas categorias mais difíceis
O segredo não é a escama.
É a arquitetura ao redor do modelo:
— um verificador que caça lacunas lógicas
— um meta-verificador que questiona o verificador
— um gerador de provas condicionado a evitar raciocínio fraco
— um ciclo que força cada parte do sistema a ficar mais nítida
O processo funciona como um moedor:
- Produzir uma prova
- Teste
- Teste o testador
- Reparar o raciocínio
-Repetir
Eles miraram na verdadeira questão do raciocínio matemático: um modelo pode acertar na resposta pelos motivos errados. Então, o DeepSeek treinou um verificador que pontua raciocínio, não resultados....

Melhores
Classificação
Favoritos

