Det som är spännande *för mig* med @AnthropicAI:s tillkännagivande om "agentfärdigheter" är att det ger ett steg mot kontinuerligt lärande. - I stället för att kontinuerligt uppdatera modellvikter kan agenter som interagerar med världen kontinuerligt lägga till nya färdigheter. - Beräkning som spenderas på resonemang kan tjäna ett dubbelt syfte: att generera nya färdigheter (just nu kasseras det arbete som går in i resonemang till stor del efter att en uppgift har utförts). Jag föreställer mig att stora mängder kunskap och färdigheter kommer att lagras utanför en modells vikter. Det verkar naturligt att destillera en del av den kunskapen till modellvikter över tid, men den delen verkar mindre grundläggande för mig. Det finns många bra saker med att lagra kunskap utanför modellen - Det är tolkningsbart (läs bara igenom färdigheterna) - Du kan korrigera fel (färdigheterna/kunskaperna är i klartext, så de är lätta att uppdatera) - Bör vara mycket dataeffektivt (på samma sätt som inlärning i kontext är dataeffektivt)