C'è una critica agli LLM che dice: "Non possono davvero pensare. È solo riconoscimento di schemi, previsione della prossima parola. Non c'è ragionamento". Non penso che sia completamente vero... ma vedere cose come questa, sì, anche i modelli avanzati faticano a uscire dal riconoscere schemi prestabiliti.
38,38K