Lucrul care este interesant *pentru mine* la anunțul de "abilități de agent" al lui @AnthropicAI este că oferă un pas spre învățarea continuă. - În loc să actualizeze continuu ponderile modelului, agenții care interacționează cu lumea pot adăuga continuu noi abilități. - Calculul cheltuit pentru raționament poate servi unui dublu scop de a genera noi abilități (în acest moment, munca care intră în raționament este în mare parte aruncată după ce o sarcină este îndeplinită). Îmi imaginez că cantități mari de cunoștințe și abilități vor fi stocate în afara greutății unui model. Pare firesc să distilez o parte din aceste cunoștințe în greutăți de model în timp, dar această parte mi se pare mai puțin fundamentală. Există multe lucruri frumoase despre stocarea cunoștințelor în afara modelului - Este interpretabil (doar citiți abilitățile) - Puteți corecta greșelile (abilitățile/cunoștințele sunt în text simplu, deci sunt ușor de actualizat) - Ar trebui să fie foarte eficient în ceea ce privește datele (în același mod în care învățarea în context este eficientă în ceea ce privește datele)