Badacz OpenAI Noam Brown na temat halucynacji w nowym modelu rozumowania IMO: > Matematycy kiedyś przeszukiwali rozwiązania modeli, ponieważ wcześniejsze systemy cicho zmieniały nierówności lub wprowadzały błędny krok, tworząc halucynowane odpowiedzi. > Brown mówi, że zaktualizowany model rozumowania IMO teraz ma tendencję do mówienia „Nie jestem pewien”, gdy brakuje mu ważnego dowodu, co znacznie ogranicza te ukryte błędy. TLDR, model pokazuje wyraźną zmianę od halucynacji w kierunku wiarygodnego, samoświadomego rozumowania.
220,51K