1+1=3 2+2=5 3+3=? Veel taalmodellen (bijv. Llama 3 8B, Mistral v0.1 7B) zullen 7 antwoorden. Maar waarom? We duiken in de interne werking van het model, onthullen een functie-inductiemechanisme en ontdekken dat het breed wordt hergebruikt wanneer modellen verrassingen tegenkomen tijdens in-context leren. 🧵
6,4K