Cercetătorii Microsoft dezvăluie o descoperire critică în siguranța LLM: nealinierea emergentă în învățarea în context! Exemplele înguste în context pot determina LLM-urile să genereze răspunsuri în general nealiniate la sarcini fără legătură, cu rate de până la 58%. O preocupare majoră pentru siguranța AI pe măsură ce ICL devine larg răspândită.