Vi pratar ofta om stora språng inom AI för matematiken, men jag tycker att de små stegen är lika imponerande. Matematikens framtid är nu. Jag arbetade med en särskild uppgift: att hitta ett skiftlägesfritt bevis för representationen av den lokala Néron-funktionskorrigeringen med hjälp av en kombination av multiplikationsrelaterade korrigeringstermer. Det är en extremt tråkig, fallberoende och ganska motbjudande typ av bevis. Så jag gav input från min uppsats och frågade GPT Pro om den kunde föreslå ett fallfritt bevis. Efter ungefär 15 minuter fick jag en vacker, konceptuell förklaring som åberopade den fulla kraften i den degenererade fiberns dubbla graf – tillsammans med den häpnadsväckande antydan om att en något normaliserad version av den lokala felkorrigeringen faktiskt är en energifunktionell. Jag blev chockad. Jag hade aldrig väntat mig en så djup insikt. Så här i efterhand kan jag nu se vad jag hade missat. Men jag missade det - och modellen guidade mig hela vägen till beviset. Detta nya bevis är mycket elegantare än det tidigare. Jag hade bara en vag vision, en gissning om att ett sådant tillvägagångssätt skulle kunna fungera, men modellens kombination av djup litteraturmedvetenhet och den kombinatoriska kraften i dess trädsökningsstrategier ledde mig direkt till den konceptuella kärnan i beviset. Ser fram emot vad andra modeller kan erbjuda också.