Modelos de Linguagem são Provavelmente Injetivos e Inversíveis! Um artigo inovador desafia a crença de longa data de que os LLMs perdem informação. Eles provam matematicamente e mostram empiricamente, em bilhões de testes, que as entradas mapeiam de forma única para representações, tornando-os sem perdas. Esta é uma descoberta poderosa para a transparência e interpretabilidade.