То, что меня волнует в объявлении @AnthropicAI о "навыках агентов", это то, что оно предоставляет шаг к непрерывному обучению. - Вместо того чтобы постоянно обновлять веса модели, агенты, взаимодействующие с миром, могут постоянно добавлять новые навыки. - Вычисления, потраченные на рассуждения, могут служить двойной цели: генерации новых навыков (в данный момент работа, которая затрачивается на рассуждения, в значительной степени отбрасывается после выполнения задачи). Я представляю, что огромные объемы знаний и навыков будут храниться вне весов модели. Кажется естественным со временем дистиллировать часть этих знаний в веса модели, но эта часть кажется мне менее фундаментальной. Есть много приятных моментов в хранении знаний вне модели - Это интерпретируемо (просто просмотрите навыки) - Вы можете исправлять ошибки (навыки / знания находятся в открытом виде, поэтому их легко обновлять) - Должно быть высокоэффективным с точки зрения данных (так же, как обучение в контексте эффективно с точки зрения данных)