Microsoft-Forscher haben eine kritische Entdeckung in der Sicherheit von LLMs gemacht: Emergent Misalignment im In-Context Learning! Eng gefasste In-Context-Beispiele können dazu führen, dass LLMs breit gefächerte, fehlgeleitete Antworten zu nicht verwandten Aufgaben generieren, mit Raten von bis zu 58 %. Eine große Sorge für die Sicherheit von KI, da ICL weit verbreitet wird.