Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Os LLMs não são "compressões borradas de significado", mas sim "rearranjadores perfeitos de estrutura." Isso sugere que eles são mais como sistemas de criptografia dinâmicos e reversíveis do que como resumidores.
O modelo não esquece; ele apenas re-representa.
"Compreensão" nesses sistemas pode não ser compressão, mas sim geometria — organizando informações de maneiras que tornam as relações computáveis sem perder fidelidade.

27/10/2025
Os LLMs são injetivos e invertíveis.
No nosso novo artigo, mostramos que diferentes prompts sempre mapeiam para diferentes embeddings, e esta propriedade pode ser usada para recuperar tokens de entrada a partir de embeddings individuais no espaço latente.
(1/6) 

Durante muito tempo, assumimos que a cognição se trata de simplificar, comprimir, reduzir — pegar dados confusos e destilá-los em significado. Mas este trabalho implica que os transformadores não "destilam" nada; eles realizam rearranjos massivamente detalhados e reversíveis.
Droga, acabei de sentir a AGI
329,02K
Top
Classificação
Favoritos

