Språkmodeller er beviselig injektive og inverterbare! En banebrytende artikkel utfordrer den langvarige troen på at LLM-er mister informasjon. De beviser matematisk og viser empirisk på tvers av milliarder av tester at innganger kartlegges unikt til representasjoner, noe som gjør dem tapsfrie. Dette er et kraftig funn for åpenhet og tolkbarhet.