1+1=3 2+2=5 3+3=? Mange språkmodeller (f.eks. Llama 3 8B, Mistral v0.1 7B) vil svare på 7. Men hvorfor? Vi graver i modellens interne deler, avdekker en funksjonsinduksjonsmekanisme og finner ut at den i stor grad gjenbrukes når modeller møter overraskelser under læring i kontekst. 🧵
6,37K