🧠 Hur kan vi utrusta LLM:er med minne som gör att de kontinuerligt kan lära sig nya saker? I vår nya artikel med @AIatMeta visar vi hur sparsamt finjusterade minneslager möjliggör riktade uppdateringar för kontinuerligt lärande, med minimal störning av befintlig kunskap. Medan fullständig finjustering och LoRA ser drastiska minskningar i uthållen uppgiftsprestanda (📉-89 % FT, -71 % LoRA på faktiska inlärningsuppgifter), lär sig minneslager samma mängd med mycket mindre glömska (-11 %). 🧵: