Het spannende voor mij aan de aankondiging van de "agent vaardigheden" van @AnthropicAI is dat het een stap biedt naar continue leren. - In plaats van continu de modelgewichten bij te werken, kunnen agenten die met de wereld interageren continu nieuwe vaardigheden toevoegen. - De rekentijd die aan redeneren wordt besteed, kan een dubbele functie vervullen door nieuwe vaardigheden te genereren (op dit moment wordt het werk dat in redeneren gaat, grotendeels weggegooid nadat een taak is uitgevoerd). Ik stel me voor dat enorme hoeveelheden kennis en vaardigheden buiten de gewichten van een model worden opgeslagen. Het lijkt natuurlijk om een deel van die kennis in de gewichten van het model te destilleren in de loop van de tijd, maar dat deel lijkt voor mij minder fundamenteel. Er zijn veel mooie dingen aan het opslaan van kennis buiten het model - Het is interpreteerbaar (lees gewoon door de vaardigheden) - Je kunt fouten corrigeren (de vaardigheden / kennis zijn in platte tekst, dus gemakkelijk bij te werken) - Het zou zeer data-efficiënt moeten zijn (op dezelfde manier dat in-context leren data-efficiënt is)