¡Investigadores de Microsoft revelan un descubrimiento crítico en la seguridad de los LLM: ¡Desalineación Emergente en el Aprendizaje en Contexto! Ejemplos en contexto estrechos pueden hacer que los LLM generen respuestas ampliamente desalineadas en tareas no relacionadas, con tasas de hasta el 58%. Una gran preocupación para la seguridad de la IA a medida que el ICL se vuelve generalizado.