Forschung des MIT zeigt, dass Debatten mit den Antworten von KI viel bessere Ergebnisse liefern. Wie können wir diese Idee nutzen, um Halluzinationen zu reduzieren? 1. Es darum bitten, seine eigenen Denkprozesse zu überprüfen. Ich zu KI 2: Ich habe den folgenden Algorithmus, um mir zu helfen, wie ich meinen Tag minimal umstrukturieren kann, um ein 75-minütiges Zeitfenster für das Fitnessstudio zu haben. Kannst du ihn überprüfen und mir sagen, welche Änderungen du vorschlagen würdest, um ihn zu vereinfachen? < Generierter Algorithmus > --- 2. Die KI bitten, brutal ehrlich zu sein. - "Welche Annahmen machst du, die ich überprüfen sollte?" - "Sei brutal ehrlich. Ist dieser Ansatz der beste Weg, den wir gehen könnten, oder gibt es bessere Möglichkeiten?" - „Sei ehrlich, wenn du dir über einen Teil davon nicht sicher bist.“ - „Es ist besser zu sagen: 'Ich weiß es nicht', als zu raten.“ - „Wenn du nicht genug Kontext hast, um eine sichere Antwort zu geben, sag mir einfach, welche zusätzlichen Informationen du benötigst.“ --- 3. Der KI sagen, dass es in Ordnung ist, nach zusätzlichen Informationen zu fragen. Sie macht einen großartigen Job, indem sie zweiter Ordnung denkt, um nicht nur zu antworten, sondern auch zusätzliche Bereiche zu berücksichtigen, in denen sie sich verbessern könnte, wenn sie mehr Informationen hätte. In der Praxis würde es so aussehen: „Ich sehe diesen Fehler im <x> System, und ich denke, er hängt mit dem <y> Ordner zusammen, aber ich bin mir nicht sicher. "Kannst du das überprüfen und mir sagen, welche Informationen du von mir benötigst oder welche Befehle du möchtest, dass ich ausführe, um dir mehr Informationen zu geben, um herauszufinden, was falsch ist?“
151