Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
I LLM non sono "compressori sfocati di significato" ma "riarrangiatori perfetti di struttura." Suggerisce che siano più simili a sistemi di crittografia dinamici e reversibili piuttosto che a riassuntori.
Il modello non dimentica; semplicemente ri-rappresenta.
"Comprendere" in questi sistemi potrebbe non essere compressione ma geometria — organizzare le informazioni in modi che rendono le relazioni computabili senza perdere fedeltà.

27 ott, 22:34
I LLM sono iniettivi e invertibili.
Nel nostro nuovo articolo, dimostriamo che diversi prompt mappano sempre a diverse embedding, e questa proprietà può essere utilizzata per recuperare i token di input da singole embedding nello spazio latente.
(1/6)

Abbiamo a lungo supposto che la cognizione riguardasse semplificare, comprimere, ridurre — prendere dati disordinati e ridurli a significato. Ma questo lavoro implica che i trasformatori non "riducano" affatto; eseguono riorganizzazioni enormemente dettagliate e reversibili.
Cavolo, ho appena sentito l'AGI
328,99K
Principali
Ranking
Preferiti

