I LLM non sono "compressori sfocati di significato" ma "riarrangiatori perfetti di struttura." Suggerisce che siano più simili a sistemi di crittografia dinamici e reversibili piuttosto che a riassuntori. Il modello non dimentica; semplicemente ri-rappresenta. "Comprendere" in questi sistemi potrebbe non essere compressione ma geometria — organizzare le informazioni in modi che rendono le relazioni computabili senza perdere fedeltà.
GLADIA Research Lab
GLADIA Research Lab27 ott, 22:34
I LLM sono iniettivi e invertibili. Nel nostro nuovo articolo, dimostriamo che diversi prompt mappano sempre a diverse embedding, e questa proprietà può essere utilizzata per recuperare i token di input da singole embedding nello spazio latente. (1/6)
Abbiamo a lungo supposto che la cognizione riguardasse semplificare, comprimere, ridurre — prendere dati disordinati e ridurli a significato. Ma questo lavoro implica che i trasformatori non "riducano" affatto; eseguono riorganizzazioni enormemente dettagliate e reversibili.
Cavolo, ho appena sentito l'AGI
328,99K