Vaya... esto podría ser el próximo gran cambio de paradigma en la IA. 🤯 Tencent + Tsinghua acaban de publicar un artículo llamado Modelos de Lenguaje Autoregresivos Continuos (CALM) y básicamente destruye el paradigma de "siguiente token" en el que se basa cada LLM. En lugar de predecir un token a la vez, CALM predice vectores continuos que representan múltiples tokens a la vez. Es decir: el modelo no piensa "palabra por palabra"... piensa en ideas por paso. Aquí está la razón por la que eso es una locura 👇 → 4× menos pasos de predicción (cada vector = ~4 tokens) → 44% menos de computación en el entrenamiento → Sin vocabulario discreto, razonamiento puramente continuo → Nueva métrica (BrierLM) reemplaza completamente la perplejidad Incluso construyeron un nuevo transformador basado en energía que aprende sin softmax, sin muestreo de tokens, sin límite de vocabulario. Es como pasar de hablar en código Morse... a transmitir pensamientos completos. Si esto escala, cada LLM de hoy es obsoleto.