Pesquisadores da Microsoft revelam uma descoberta crítica na segurança do LLM: Desalinhamento Emergente na Aprendizagem em Contexto! Exemplos estreitos no contexto podem fazer com que os LLMs gerem respostas amplamente desalinhadas em tarefas não relacionadas, com taxas de até 58%. Uma grande preocupação com a segurança da IA à medida que a ICL se espalha.