O que é empolgante *para mim* sobre o anúncio de "habilidades do agente" do @AnthropicAI é que ele fornece um passo em direção ao aprendizado contínuo. - Em vez de atualizar continuamente os pesos do modelo, os agentes que interagem com o mundo podem adicionar continuamente novas habilidades. - A computação gasta no raciocínio pode servir a um duplo propósito de gerar novas habilidades (no momento, o trabalho que vai para o raciocínio é amplamente descartado depois que uma tarefa é executada). Imagino que grandes quantidades de conhecimento e habilidades serão armazenadas fora dos pesos de um modelo. Parece natural destilar parte desse conhecimento em pesos de modelo ao longo do tempo, mas essa parte parece menos fundamental para mim. Há muitas coisas boas em armazenar conhecimento fora do modelo - É interpretável (basta ler as habilidades) - Você pode corrigir erros (as habilidades / conhecimentos estão em texto simples, portanto, são fáceis de atualizar) - Deve ser altamente eficiente em termos de dados (da mesma forma que o aprendizado no contexto é eficiente em termos de dados)