LLM nejsou "rozmazané kompresory významu", ale "dokonalé přeskupení struktury". Naznačuje to, že jsou spíše jako dynamické, reverzibilní šifrovací systémy než jako sumarizátory. Model nezapomíná; prostě to znovu představuje. "Porozumění" v těchto systémech nemusí být komprese, ale geometrie – organizování informací způsoby, které činí vztahy vyčíslitelnými bez ztráty věrnosti.
GLADIA Research Lab
GLADIA Research Lab27. 10. 2025
LLMs are injective and invertible. In our new paper, we show that different prompts always map to different embeddings, and this property can be used to recover input tokens from individual embeddings in latent space. (1/6)
Dlouho jsme předpokládali, že kognice je o zjednodušování, kompresi, zmenšování – o tom, že se berou chaotická data a vaří se z nich Ale tato práce naznačuje, že transformátory se vůbec "nevaří"; Provádějí masivně detailní, reverzibilní přestavby.
Sakra, právě jsem cítil AGI
329,03K