Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Cazzo santo... questo potrebbe essere il prossimo grande cambiamento di paradigma nell'AI. 🤯
Tencent + Tsinghua hanno appena pubblicato un documento chiamato Continuous Autoregressive Language Models (CALM) e fondamentalmente annienta il paradigma del “next-token” su cui si basa ogni LLM.
Invece di prevedere un token alla volta, CALM prevede vettori continui che rappresentano più token contemporaneamente.
Significa: il modello non pensa “parola per parola”… pensa in idee per passo.
Ecco perché è pazzesco 👇
→ 4× meno passi di previsione (ogni vettore = ~4 token)
→ 44% in meno di calcolo per l'addestramento
→ Nessun vocabolario discreto, ragionamento puramente continuo
→ Nuova metrica (BrierLM) sostituisce completamente la perplessità
Hanno persino costruito un nuovo trasformatore basato sull'energia che impara senza softmax, senza campionamento di token, senza tetto sul vocabolario.
È come passare dal parlare in codice Morse… a trasmettere pensieri completi.
Se questo scala, ogni LLM di oggi è obsoleto.

Principali
Ranking
Preferiti

