Os modelos de linguagem são comprovadamente injetivos e invertíveis! Um artigo inovador desafia a crença de longa data de que os LLMs perdem informações. Eles provam matematicamente e mostram empiricamente em bilhões de testes que as entradas são mapeadas exclusivamente para representações, tornando-as sem perdas. Esta é uma descoberta poderosa para transparência e interpretabilidade.