LLMs benötigen Fokus, denn Aufmerksamkeit allein reicht nicht aus. (Thread über die Fokus-Kette, Clines Verbindung zum persistierenden Kontext)
23,1K