Det er en kritikk av LLM-er som lyder: «De kan egentlig ikke tenke. Det er bare mønstergjenkjenning, neste-ord-prediksjon. Det er ingen resonnement". Jeg tror ikke det er 100% sant ... Men å se ting som dette, ja, selv avanserte modeller sliter med å bryte ut av å gjenkjenne faste mønstre.
38,38K