Puta merda... esta pode ser a próxima grande mudança de paradigma na IA. 🤯 A Tencent + Tsinghua acabou de lançar um artigo chamado Modelos de Linguagem Autorregressivos Contínuos (CALM) e basicamente mata o paradigma do "próximo token" sobre o qual todo LLM é construído. Em vez de prever um token por vez, o CALM prevê vetores contínuos que representam vários tokens ao mesmo tempo. Significado: o modelo não pensa "palavra por palavra"... ele pensa em ideias por etapa. Veja por que isso é insano 👇 → 4× menos etapas de previsão (cada vetor = ~4 tokens) → 44% menos computação de treinamento → Sem vocabulário discreto, raciocínio contínuo puro → Nova métrica (BrierLM) substitui totalmente a perplexidade Eles até construíram um novo transformador baseado em energia que aprende sem softmax, sem amostragem simbólica, sem teto de vocabulário. É como deixar de falar código Morse... para transmitir pensamentos completos. Se isso for dimensionado, todo LLM hoje está obsoleto.