Astaga... ini mungkin perubahan paradigma besar berikutnya dalam AI. 🤯 Tencent + Tsinghua baru saja menjatuhkan makalah yang disebut Continuous Autoregressive Language Models (CALM) dan pada dasarnya membunuh paradigma "next-token" yang dibangun di atas setiap LLM. Alih-alih memprediksi satu token pada satu waktu, CALM memprediksi vektor kontinu yang mewakili beberapa token sekaligus. Artinya: model tidak berpikir "kata demi kata"... itu berpikir dalam ide per langkah. Inilah mengapa itu gila 👇 → 4× langkah prediksi lebih sedikit (setiap vektor = ~4 token) → komputasi pelatihan 44% lebih sedikit → Tidak ada kosakata terpisah penalaran berkelanjutan murni → Metrik baru (BrierLM) menggantikan kebingungan sepenuhnya Mereka bahkan membangun transformator berbasis energi baru yang belajar tanpa softmax, tanpa pengambilan sampel token, tanpa langit-langit kosakata. Ini seperti beralih dari berbicara kode Morse... untuk streaming pikiran penuh. Jika ini berskala, setiap LLM saat ini sudah usang.