Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Puta merda... esta pode ser a próxima grande mudança de paradigma na IA. 🤯
A Tencent + Tsinghua acabou de lançar um artigo chamado Modelos de Linguagem Autorregressivos Contínuos (CALM) e basicamente mata o paradigma do "próximo token" sobre o qual todo LLM é construído.
Em vez de prever um token por vez, o CALM prevê vetores contínuos que representam vários tokens ao mesmo tempo.
Significado: o modelo não pensa "palavra por palavra"... ele pensa em ideias por etapa.
Veja por que isso é insano 👇
→ 4× menos etapas de previsão (cada vetor = ~4 tokens)
→ 44% menos computação de treinamento
→ Sem vocabulário discreto, raciocínio contínuo puro
→ Nova métrica (BrierLM) substitui totalmente a perplexidade
Eles até construíram um novo transformador baseado em energia que aprende sem softmax, sem amostragem simbólica, sem teto de vocabulário.
É como deixar de falar código Morse... para transmitir pensamentos completos.
Se isso for dimensionado, todo LLM hoje está obsoleto.

Melhores
Classificação
Favoritos

