Há uma crítica aos LLMs que diz: "Eles não conseguem realmente pensar. É apenas reconhecimento de padrões, previsão da próxima palavra. Não há raciocínio". Não acho que isso seja 100% verdade... mas ao ver coisas assim, sim, até modelos avançados têm dificuldade em sair do reconhecimento de padrões estabelecidos.
38,4K