Es gibt eine Kritik an LLMs, die besagt: "Sie können nicht wirklich denken. Es ist nur Mustererkennung, Vorhersage des nächsten Wortes. Es gibt kein Denken". Ich denke nicht, dass das zu 100 % wahr ist… aber wenn man so etwas sieht, ja, selbst fortgeschrittene Modelle haben Schwierigkeiten, aus der Erkennung fester Muster auszubrechen.
38,39K