マイクロソフトの研究者が、LLM の安全性における重要な発見を明らかにしました: コンテキスト内学習における新たな不整合! コンテキスト内の例が狭いと、LLM は無関係なタスクに対して最大 58% の応答を大きくずれる可能性があります。ICLが普及するにつれ、AIの安全性に対する大きな懸念事項。