DeepSeek onnistui juuri sellaisessa päivityksessä, jota jokainen järkeilymalli on esittänyt omaavansa. Sen sijaan, että heittäisi pitkän ajatusketjun ja toivoisi sen olevan järkevä, DeepSeek Math V2 suorittaa täydellisen kyselyn omalla logiikallaan. Se rakentaa todistuksen, hyökkää sen kimppuun, tarkistaa hyökkäyksen, tarkistaa tarkistin, korjaa virheet ja silmukoida, kunnes se ei enää pysty rikkomaan itseään. Tuo yksittäinen idea muutti sen suorituskyvyn täysin. Tässä on, mitä tuo itsetutkiskelun taso aiheutti: • Kultatason suoritus IMO 2025 -kilpailussa • Kultatason suoritus CMO 2024 -tapahtumassa • 118/120 Putnamissa 2024, korkein raportoitu pistemäärä • Paremmat tulokset kuin GPT-5 Thinkingillä ja Gemini 2.5 Prolla vaikeimmissa kategorioissa Salaisuus ei ole mittakaavaa. Kyse on mallin ympärillä olevasta arkkitehtuurista: — varmentaja, joka etsii loogisia aukkoja — meta-varmennustekijä, joka kyseenalaistaa varmennustekijän — todistusgeneraattori, joka on ehdollistettu välttämään heikkoa päättelyä — silmukka, joka pakottaa järjestelmän jokaisen osan terävöitymään Prosessi etenee kuin hiomakone: - Tuottaa todistus - Testaa - Testaa testilaite - Korjaa päättely -Toistaa He tähtäsivät matemaattisen päättelyn todelliseen ongelmaan: malli voi osua oikeaan vastaukseen vääristä syistä. Siksi DeepSeek koulutti varmistajan, joka arvioi päättelyä, ei tuloksia....