Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Święty szit... to może być następna wielka zmiana paradygmatu w AI. 🤯
Tencent + Tsinghua właśnie opublikowali artykuł zatytułowany Modele Językowe Ciągłe Autoregresywne (CALM), który zasadniczo obala paradygmat „następnego tokena”, na którym opiera się każdy LLM.
Zamiast przewidywać jeden token na raz, CALM przewiduje ciągłe wektory, które reprezentują wiele tokenów jednocześnie.
To oznacza: model nie myśli „słowo po słowie”… myśli w pomysłach na krok.
Oto dlaczego to jest szalone 👇
→ 4× mniej kroków przewidywania (każdy wektor = ~4 tokeny)
→ 44% mniej obliczeń podczas treningu
→ Brak dyskretnego słownictwa, czysta ciągła reasoning
→ Nowa metryka (BrierLM) całkowicie zastępuje perplexity
Zbudowali nawet nowy transformator oparty na energii, który uczy się bez softmax, bez próbkowania tokenów, bez ograniczeń słownictwa.
To jak przejście od mówienia kodem Morse'a… do strumieniowania pełnych myśli.
Jeśli to się rozwinie, każdy LLM dzisiaj stanie się przestarzały.

Najlepsze
Ranking
Ulubione

