LLM's kunnen goed lijken te redeneren, maar een enkele verkeerde token kan de hele output ontsporen. Ons nieuwe werk toont aan dat memorisatie op token-niveau een belangrijke oorzaak van falen is, vooral onder distributieverschuiving. Introductie: STIM 🔍🧠 🧵 #NLProc
14,36K