Il y a une critique des LLM qui dit : "Ils ne peuvent pas vraiment penser. C'est juste de la reconnaissance de motifs, de la prédiction du mot suivant. Il n'y a pas de raisonnement". Je ne pense pas que ce soit 100 % vrai… mais en voyant des choses comme ça, oui, même les modèles avancés ont du mal à sortir de la reconnaissance de motifs établis.
38,4K