O pesquisador da OpenAI, Noam Brown, fala sobre alucinação com o novo modelo de raciocínio da IMO: > Os matemáticos costumavam vasculhar as soluções do modelo porque os sistemas anteriores invertiam silenciosamente uma desigualdade ou davam um passo errado, criando respostas alucinadas. > Brown diz que o modelo de raciocínio atualizado da IMO agora tende a dizer "não tenho certeza" sempre que não tem uma prova válida, o que reduz drasticamente esses erros ocultos. TLDR, o modelo mostra uma clara mudança das alucinações para um raciocínio confiável e autoconsciente.
220,5K