Microsoft-forskare avslöjar en kritisk upptäckt inom LLM-säkerhet: Emergent Misalignment in In-Context Learning! Smala exempel i sammanhanget kan få LLM:er att generera brett feljusterade svar på orelaterade uppgifter, med hastigheter upp till 58 %. Ett stort bekymmer för AI-säkerheten när ICL blir utbrett.