Microsoft-onderzoekers onthullen een belangrijke ontdekking op het gebied van LLM-veiligheid: Opkomende Misalignement in In-Context Leren! Nauwe in-context voorbeelden kunnen ervoor zorgen dat LLM's breed misaligned reacties genereren op niet-verwante taken, met percentages tot 58%. Een grote zorg voor AI-veiligheid nu ICL wijdverspreid wordt.