DeepSeek tocmai a reușit genul de upgrade pe care orice model de raționament a pretins că îl are. În loc să arunce un lanț lung de gânduri și să spere că are sens, DeepSeek Math V2 rulează o interogare completă pe propria logică. Construiește o demonstrație, o atacă, verifică atacul, verifică verificarea, repară defectele și repetă bucle până când nu se mai poate sparge singură. Acea singură idee i-a schimbat complet performanța. Iată ce a produs acel nivel de autoanaliză: • Performanță de nivel aur la IMO 2025 • Performanță de nivel aur la CMO 2024 • 118/120 la Putnam 2024, cel mai mare scor raportat • Rezultate mai bune decât GPT-5 Thinking și Gemini 2.5 Pro la cele mai dificile categorii Secretul nu este scara. Este arhitectura din jurul modelului: — un verificator care caută goluri logice — un meta-verificator care pune sub semnul întrebării verificatorul — un generator de demonstrații condiționat să evite raționamentul slab — o buclă care forțează fiecare parte a sistemului să devină mai clară Procesul funcționează ca o râșniță: - Să producă o demonstrație - Testează-l - Testează testerul - Repararea raționamentului -Repeta Ei au vizat problema reală a raționamentului matematic: un model poate da răspunsul corect din motive greșite. Astfel, DeepSeek a antrenat un verificator care evaluează raționamentul, nu rezultatele....