Fortschritte bei Halluzinationen:
Chris
Chris31. Juli 2025
OpenAI-Forscher Noam Brown über Halluzinationen mit dem neuen IMO-Argumentationsmodell: > Mathematiker durchforsteten früher die Modelllösungen, weil frühere Systeme stillschweigend eine Ungleichheit umdrehten oder einen falschen Schritt einfügten, was halluzinierte Antworten erzeugte. > Brown sagt, dass das aktualisierte IMO-Argumentationsmodell jetzt dazu neigt zu sagen: „Ich bin mir nicht sicher“, wann immer es keinen gültigen Beweis hat, was die versteckten Fehler erheblich reduziert. Zusammenfassend zeigt das Modell einen klaren Wandel weg von Halluzinationen hin zu zuverlässigem, selbstbewusstem Denken.
95,65K