Er is een kritiek op LLM's die zegt: "Ze kunnen niet echt denken. Het is gewoon patroonherkenning, voorspelling van het volgende woord. Er is geen redenering". Ik denk niet dat dat 100% waar is... maar als je dingen zoals dit ziet, ja, zelfs geavanceerde modellen hebben moeite om uit het herkennen van vaste patronen te breken.
38,39K