@AnthropicAIの「エージェントスキル」の発表で*私*がエキサイティングなのは、継続的な学習への一歩を提供することです。 - モデルの重みを継続的に更新するのではなく、世界と対話するエージェントは新しいスキルを継続的に追加できます。 - 推論に費やされるコンピューティングは、新しいスキルを生み出すという 2 つの目的を果たすことができます (現在、推論に費やされる作業は、タスクが実行された後にほとんど破棄されます)。 膨大な量の知識とスキルがモデルの重みの外に保存されると思います。その知識の一部を時間をかけてモデルの重みに抽出するのは自然なことのように思えますが、その部分は私にはそれほど基本的なことではないようです。 モデルの外に知識を保存することには、多くの良い点があります - 解釈可能です(スキルを読んでください) - 間違いを修正できます(スキル/知識は平文なので、更新が簡単です) - データ効率が高いこと(コンテキスト内学習がデータ効率が高いのと同じように)