OpenAIの研究者ノーム・ブラウン氏が、新しいIMO推論モデルによる幻覚について語る。 > 数学者は、以前のシステムでは静かに不等式を反転させたり、間違ったステップを踏んだりして、幻覚のような答えを生み出していたため、モデルの解をくまなく調べていました。 >ブラウン氏は、更新されたIMO推論モデルは、有効な証拠が欠けているときはいつでも「よくわからない」と言う傾向があり、これにより隠れたエラーが大幅に減少していると述べています。 TLDR、このモデルは幻覚から、信頼できる自己認識の推論への明確な移行を示しています。
220.5K