Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Det som är spännande *för mig* med @AnthropicAI:s tillkännagivande om "agentfärdigheter" är att det ger ett steg mot kontinuerligt lärande.
- I stället för att kontinuerligt uppdatera modellvikter kan agenter som interagerar med världen kontinuerligt lägga till nya färdigheter.
- Beräkning som spenderas på resonemang kan tjäna ett dubbelt syfte: att generera nya färdigheter (just nu kasseras det arbete som går in i resonemang till stor del efter att en uppgift har utförts).
Jag föreställer mig att stora mängder kunskap och färdigheter kommer att lagras utanför en modells vikter. Det verkar naturligt att destillera en del av den kunskapen till modellvikter över tid, men den delen verkar mindre grundläggande för mig.
Det finns många bra saker med att lagra kunskap utanför modellen
- Det är tolkningsbart (läs bara igenom färdigheterna)
- Du kan korrigera fel (färdigheterna/kunskaperna är i klartext, så de är lätta att uppdatera)
- Bör vara mycket dataeffektivt (på samma sätt som inlärning i kontext är dataeffektivt)

Topp
Rankning
Favoriter