Cazzo santo... questo potrebbe essere il prossimo grande cambiamento di paradigma nell'AI. 🤯 Tencent + Tsinghua hanno appena pubblicato un documento chiamato Continuous Autoregressive Language Models (CALM) e fondamentalmente annienta il paradigma del “next-token” su cui si basa ogni LLM. Invece di prevedere un token alla volta, CALM prevede vettori continui che rappresentano più token contemporaneamente. Significa: il modello non pensa “parola per parola”… pensa in idee per passo. Ecco perché è pazzesco 👇 → 4× meno passi di previsione (ogni vettore = ~4 token) → 44% in meno di calcolo per l'addestramento → Nessun vocabolario discreto, ragionamento puramente continuo → Nuova metrica (BrierLM) sostituisce completamente la perplessità Hanno persino costruito un nuovo trasformatore basato sull'energia che impara senza softmax, senza campionamento di token, senza tetto sul vocabolario. È come passare dal parlare in codice Morse… a trasmettere pensieri completi. Se questo scala, ogni LLM di oggi è obsoleto.