Microsoftin tutkijat paljastavat kriittisen löydön LLM-turvallisuudesta: Emergent Misalignment in In-Context Learning! Kapeat kontekstiin liittyvät esimerkit voivat aiheuttaa sen, että LLM:t tuottavat laajalti väärin kohdistettuja vastauksia toisiinsa liittymättömiin tehtäviin, jopa 58 %. Suuri huolenaihe tekoälyn turvallisuudelle, kun ICL yleistyy.