Det finns en kritik mot LLM:er som lyder: "De kan inte riktigt tänka. Det är bara mönsterigenkänning, förutsägelse av nästa ord. Det finns ingen logik". Jag tror inte att det är 100% sant ... Men när man ser sånt här, ja, till och med avancerade modeller har svårt att bryta sig ur att känna igen fasta mönster.
38,4K