1+1=3 2+2=5 3+3=? Viele Sprachmodelle (z. B. Llama 3 8B, Mistral v0.1 7B) werden mit 7 antworten. Aber warum? Wir tauchen in die internen Abläufe des Modells ein, decken einen Funktionsinduktionsmechanismus auf und stellen fest, dass er häufig wiederverwendet wird, wenn Modelle während des kontextuellen Lernens auf Überraschungen stoßen. 🧵
6,37K