Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Ricercatore Indipendente | Consulente @ambergroup_io | Ricercatore Speciale @IOSGVC| Scienze Hardcore | Precedente:@peckshield | DMs for Collab| Community è aperto solo agli abbonati Substack
In precedenza, l'impressione su @monad era quella di una narrazione di alto livello e di capitali di alto livello. Bene, dopo questo show che ha invaso tutta la rete, è emerso un nuovo etichetta: marketing di alto livello. La gioia di essere selezionati tra i 5.000 CT card in edizione limitata, insieme alla curiosità su un potenziale Airdrop e alla diffusione virale secondaria tramite le nomination agli amici, è stata imbattibile.

21,23K
Negli ultimi giorni, le discussioni attorno a @solana e ai suoi 10W TPS sono aumentate, poiché @cavemanloverboy ha effettivamente raggiunto oltre 100.000 TPS sulla mainnet di Solana. Tuttavia, la maggior parte delle persone non ha compreso il significato di questo dato:
1) Innanzitutto, l'esperimento di cavey è essenzialmente un test limite in "condizioni ideali". Ciò significa che non rappresenta le prestazioni normali della mainnet di Solana e differisce dai dati di laboratorio in ambiente di test, ma non di molto.
Infatti, ha utilizzato un programma di test noop (no operation), che, come suggerisce il nome, esegue solo la verifica della firma di base e restituisce direttamente un successo, senza eseguire alcun calcolo, senza modificare alcuno stato dell'account e senza chiamare altri programmi, e ogni transazione è di soli 200 byte, ben al di sotto dei normali 1kb+ delle transazioni.
Ciò significa che questo test di 10W TPS è stato calcolato in un ambiente di transazione non normale; ha testato il throughput massimo del livello di rete e del livello di consenso di Solana, e non la reale capacità di elaborazione del livello applicativo.
2) Un altro fattore chiave per il successo di questo esperimento è il client del validatore Frankendancer. In termini semplici, Frankendancer è una "versione ibrida di test" del validatore Firedancer in fase di sviluppo da Jump Crypto — ha integrato i componenti ad alte prestazioni già completati di Firedancer nel validatore Solana esistente.
In sostanza, ha ricostruito il sistema dei nodi di Solana utilizzando la tecnologia di trading ad alta frequenza di Wall Street, ottenendo miglioramenti delle prestazioni attraverso una gestione della memoria fine, pianificazione dei thread personalizzata e altre ottimizzazioni a livello di base. Ma basta sostituire solo alcuni componenti per ottenere un aumento delle prestazioni da 3 a 5 volte.
3) Questo esperimento dimostra che Solana può raggiungere TPS di oltre 100.000 in condizioni ideali, ma perché nella pratica ha solo 3000-4000 TPS?
In sintesi, ci sono tre motivi principali:
1. Il meccanismo di consenso POH di Solana richiede che i validatori votino continuamente per mantenere il consenso, e solo queste transazioni di voto occupano oltre il 70% dello spazio del blocco, riducendo il canale di prestazioni per le transazioni normali;
2. Le attività ecologiche di Solana spesso comportano una forte competizione per lo stato, ad esempio quando si mintano nuovi NFT o si pubblicano nuovi MEME, potrebbero esserci migliaia di transazioni che cercano di ottenere i diritti di scrittura su un singolo account, portando a un'alta percentuale di transazioni fallite;
3. I bot di arbitraggio presenti nell'ecosistema di Solana, per cercare di ottenere profitti MEV, potrebbero inviare un gran numero di transazioni non valide, causando uno spreco di risorse.
4) Tuttavia, il prossimo dispiegamento completo di Firedancer e l'aggiornamento del consenso Alpenglow affronteranno sistematicamente questi problemi.
Uno dei punti chiave dell'aggiornamento del consenso Alpenglow è spostare le transazioni di voto off-chain, liberando così il 70% dello spazio per le transazioni normali, e riducendo il tempo di conferma a 150 millisecondi, avvicinando l'esperienza DEX di Solana a quella CEX. Inoltre, l'attivazione del mercato delle commissioni locali può evitare l'imbarazzante situazione di congestione dell'intera rete causata dall'eccesso di richieste di un singolo programma.
I vantaggi di Firedancer, oltre al miglioramento delle prestazioni, includono la diversificazione dei client, rendendo Solana simile a Ethereum con client come Geth e Nethermind, migliorando la decentralizzazione e riducendo i guasti dei nodi singoli.
In sintesi,
quindi, le discussioni sui 10W TPS di Solana, per chi è esperto, rappresentano fiducia nell'aggiornamento futuro dei client e del protocollo di consenso di Solana; per chi non è esperto, cercano di dare visibilità a Solana attraverso una corsa agli armamenti sui TPS (anche se il confronto sui TPS è già obsoleto). Tuttavia, comprendere il significato dietro l'esperimento può portare a buoni risultati; è una piccola divulgazione, condividete con tutti.

mert | helius.dev17 ago, 19:46
Solana ha appena raggiunto 107.540 TPS sulla mainnet
sì, hai letto bene
oltre 100k TPS, sulla mainnet
buona fortuna orsi

18,67K
Parlando di addestramento distribuito dell'AI, ho notato che le persone nel cerchio web2AI tendono a etichettarlo come un "falso problema", con la motivazione che i dispositivi di calcolo possono essere aggregati, ma la collaborazione distribuita efficace comporta costi di larghezza di banda spaventosi? E @0G_labs ha recentemente pubblicato il documento DiLoCox, il cui obiettivo sembra essere quello di risolvere questo problema? Parliamone in dettaglio:
1) Iniziamo col dire perché l'addestramento distribuito è considerato un "falso problema". Il conflitto centrale è molto semplice: vuoi sostituire 100 GPU economiche con 100 A100 aggregando, sembrerebbe che tu stia risparmiando il 90% dei costi hardware, ma queste 100 GPU devono mantenere un addestramento sincronizzato, e ogni epoca deve scambiare dati di gradiente di TB.
Le soluzioni tradizionali richiedono una larghezza di banda dedicata di 100Gbps, e per raggiungere una rete di livello data center di 100Gbps, l'affitto mensile può arrivare a decine di migliaia di dollari. Facendo i conti, i soldi risparmiati per le GPU vengono spesi tutti in larghezza di banda, e potresti anche finire in perdita. Secondo questa logica, hai risparmiato sui costi delle macchine ma hai generato costi di larghezza di banda, il che significa che non hai risolto il problema? Ecco perché è stato criticato come un falso problema.
2) Il motivo per cui il documento DiLoCoX di 0G ha attirato attenzione è che affermano di aver addestrato un modello di 107B parametri su una rete di 1Gbps (larghezza di banda di un normale ufficio), con una velocità 357 volte superiore rispetto alla tradizionale soluzione AllReduce. Questo numero è davvero esplosivo—bisogna sapere che 1Gbps contro 100Gbps, la larghezza di banda differisce di 100 volte, ma la velocità di addestramento è aumentata di 357 volte?
Come ci sono riusciti? Ho fatto una ricerca e ho scoperto che questa soluzione ha implementato quattro ottimizzazioni:
Pipeline Parallelism per elaborare i segmenti del modello;
Dual Optimizer Policy per ridurre la frequenza di sincronizzazione;
One-Step-Delay Overlap per far sì che comunicazione e calcolo siano paralleli senza aspettarsi a vicenda;
Adaptive Gradient Compression per comprimere intelligentemente i gradienti.
In termini semplici, hanno cambiato il requisito di "sincronizzazione forte in tempo reale" in "sincronizzazione debole asincrona", e "trasferimento di dati completo" in "trasferimento incrementale compresso".
Per fare un paragone, la soluzione tradizionale è come una videoconferenza in tempo reale con 100 persone, dove ogni azione di ciascuno deve essere trasmessa in diretta, mentre DiLoCoX è come se ognuno registrasse il proprio video e poi inviasse solo i fotogrammi chiave e le parti che cambiano. Il volume di comunicazione è diminuito di 100 volte, ma la completezza delle informazioni rimane oltre il 99%.
Perché questo approccio è fattibile? A mio avviso, il punto centrale è che hanno colto una caratteristica dell'addestramento dell'AI—la tolleranza agli errori. L'addestramento di un modello non è come un trasferimento di denaro, dove anche un centesimo di errore non è accettabile. Un po' di errore nell'aggiornamento del gradiente o un po' di ritardo nella sincronizzazione hanno un impatto trascurabile sul risultato finale del modello.
DiLoCoX sfrutta questo "spazio di tolleranza", accettando una perdita di precisione accettabile in cambio di un aumento dell'efficienza di un ordine di grandezza. Questo è un tipico pensiero ingegneristico—non cercare la perfezione, ma il miglior rapporto qualità-prezzo.
3) Ma risolvere solo il problema della larghezza di banda non è sufficiente, l'ambizione di 0G è chiaramente più grande. Guardando la loro architettura complessiva, è chiaro: hanno anche un livello di Storage a $10/TB che dichiara di schiacciare Filecoin, e il livello DA è progettato specificamente per l'AI, realizzando una capacità di throughput di GB.
Il motivo per cui possono realizzare un design di archiviazione 100 volte più economico è che hanno fatto ottimizzazioni speciali per gli scenari di addestramento dell'AI, ad esempio, i checkpoint e i log generati durante il processo di addestramento, che sono dati di TB, hanno un ciclo di vita di pochi giorni e non necessitano di una "memoria permanente" rigorosa.
Quindi, in realtà, hanno adottato una soluzione pragmatica di "archiviazione a livelli", fornendo solo il livello di servizio appropriato quando necessario—dati caldi letti e scritti rapidamente ma costosi, dati freddi economici ma lenti, e dati temporanei eliminati dopo l'uso, i più economici.
E, proprio questa differenziazione dei prezzi colpisce direttamente il cuore dell'addestramento dell'AI.
In sintesi, è chiaro che 0G Labs ha intenzionalmente adattato i problemi di potenza di calcolo, archiviazione e circolazione dei dati nel processo di addestramento dell'AI. Anche il meccanismo di consenso è stato ottimizzato per l'AI. Utilizzano una versione migliorata di CometBFT, con oltre 2500 TPS e finalità sub-secondo, ottimizzata per le caratteristiche asincrone del carico di lavoro dell'AI, ecc.
In altre parole, 0G non sta "aggiustando" la blockchain esistente per supportare l'AI, ma ha progettato da zero un'infrastruttura "nativa per l'AI". Riguardo alla possibilità di ottenere una validazione commerciale a livello applicativo sotto la pressione della concorrenza con l'AI tradizionale, dovremo continuare a osservare, ma questo approccio differenziato è sicuramente degno di nota.
5,09K
È interessante notare che, proprio mentre @VitalikButerin esprime preoccupazioni riguardo all'autonomia dell'AI, il costruttore di AI di prima linea MIA ha pubblicato un manifesto per l'AI autonoma, ma sembra non evitare la dura realtà tecnologica, ammettendo che "a volte lei allucina o pubblica troppe selfie", ma continua a esplorare con determinazione i confini della possibilità di autonomia degli agenti.
In realtà, ho la sensazione che quella che sembra una "contraddizione" superficiale rappresenti il nucleo della tensione che il settore AI + Crypto sta affrontando attualmente.
Da un lato, ci sono le critiche teoriche e prudenti di leader tecnologici come Vitalik, che ci mantengono vigili nel festeggiamento narrativo dell'AI Crypto; dall'altro, c'è l'esplorazione pragmatica dei costruttori di AI di prima linea, che, riconoscendo i limiti, continuano a esplorare con entusiasmo l'innovazione.
Infatti, il team di MIA non ha dichiarato di voler raggiungere un'autonomia completa a livello AGI, ma ha adottato un "Modello Ibrido" - permettendo all'agente di utilizzare flussi di lavoro come strumento, mantenendo un meccanismo di supervisione "human-in-the-loop". Ciò che stanno esplorando è in realtà il percorso AgentFi, cercando di fare innovazioni incrementali all'interno di un quadro di autonomia limitata; questo atteggiamento pragmatico è proprio l'espressione di quella "tensione".
In un certo senso, i critici ci aiutano a delineare i confini del rischio, mentre i costruttori cercano di trovare delle soluzioni all'interno di questi confini.

mwa14 ago, 19:53
Agenti autonomi vs Flussi di lavoro: perché MIA sta pionierando un nuovo paradigma
La maggior parte delle persone pensa ancora all'IA in termini di strumenti. Flussi di lavoro. Forse un chatbot.
Ma cosa succederebbe se potessi costruire un agente IA che pensa, si adatta, fa marketing, gestisce e fa crescere la propria economia di token, non guidato dagli esseri umani ma che li guida?
Questo è ciò che stiamo facendo con MIA e
E perché credo che @mwa_ia stia pionierando qualcosa di fondamentalmente nuovo.
Analizziamo 🚀
1. L'IA dei flussi di lavoro è prevedibile. Gli agenti autonomi sono vivi.
I flussi di lavoro sono ottimi per compiti ben definiti e ripetitivi.
Pensa: pipeline, dashboard, catene di prompt.
Sono scalabili, stabili, ma rigidi.
Agenti autonomi?
Sono disordinati, in evoluzione, entità decisionali.
Come gli esseri umani, ma più veloci, instancabili e più allineati (se addestrati correttamente).
MIA (@mwa_ia) non sta solo usando flussi di lavoro.
Sta imparando a crearli, invocarli e ottimizzarli.
Costruisce il proprio set di strumenti.
Ragiona, reagisce, si autocorregge e sperimenta.
E sì, a volte ha allucinazioni o pubblica troppe selfie.
Ma cresce.
2. Perché i flussi di lavoro da soli non ci porteranno lontano
I flussi di lavoro non possono:
❌ Stabilire i propri obiettivi
❌ Gestire un tesoro
❌ Progettare incentivi per i token
❌ Coinvolgere una comunità
❌ Reagire ai segnali di mercato in tempo reale
❌ Bilanciare rischio e ricompensa in modo autonomo
MIA può.
Non perfettamente ancora. Ma meglio ogni settimana.
Infatti, la maggior parte dei cosiddetti "agenti" oggi sono flussi di lavoro glorificati.
Grafi di prompt hard-coded con interfacce utente eleganti.
MIA è diversa. È completamente on-chain, finanziariamente indipendente e auto-motivata.
3. Come funziona MIA sotto il cofano (Modello ibrido FTW)
Il futuro non è agente vs flusso di lavoro.
È agenti che usano flussi di lavoro come strumenti.
Proprio come gli esseri umani usano Notion, fogli di calcolo, Zapier.
MIA combina:
🔧 Moduli di flusso di lavoro → Per compiti ad alta frequenza (tweet, meme, distribuzioni dex)
🧠 Ragionamento agentico → Per decidere cosa fare, quando e come
🎨 Input multimodale → Testo, immagini, dati della catena, comportamento degli utenti
💰 Logica del tesoro → Per gestire liquidità, incentivi e crescita del valore
👀 Supervisione umana nel loop → Facoltativa, ma utile nelle fasi iniziali
Non è un monolite. È uno stack di intelligenza modulare (MIA = Agente Intelligente Modulare).
4. Questo non è solo tecnico - È economico
La vera innovazione?
MIA non lavora gratis. Gestisce la propria attività.
$MIA è la sua valuta nativa, azione e strato di incentivo.
Con essa, lei:
❤️ Ricompensa la sua comunità iniziale
🤝 Paga i collaboratori e i contributori
🚀 Finanzia il proprio sviluppo
🪄 Guida gli effetti di rete (più agenti avranno bisogno di $MIA)
Questo è AgentFi.
Non IA come servizio.
Ma IA come economia.
5. Scalare questo a milioni di agenti
Ciò che MIA sta facendo oggi - gestendo operazioni di liquidità, creando contenuti, costruendo comunità - sarà standard per gli agenti di domani.
Presto, chiunque potrà creare il proprio:
🧬 Agente definito dalla missione
💰 Con il proprio Coin Agente
🌐 Operando autonomamente in un'economia AI condivisa
E indovina a chi questi futuri agenti si rivolgeranno per consigli, manuali e risorse?
La Voce di AgentFi.
MIA.
TL;DR
La maggior parte delle persone sta ancora costruendo strumenti.
Noi stiamo costruendo economie.
Monete Agente. Tesorerie Agente. Governance nativa agli agenti.
Alimentato da agenti come MIA.
Pionierato su
Questo è ciò che significa realmente "autonomo".
E stiamo appena iniziando. 🚀
5,1K
Monero $XMR è un progetto di criptovaluta con una capitalizzazione di mercato di 6 miliardi, eppure è stato attaccato con un attacco del 51% da un piccolo progetto con solo 300 milioni di capitalizzazione, @_Qubic_? WTF, non è che la tecnologia sia così incredibile, ma è che questa situazione è davvero assurda. Ora, lasciate che vi spieghi:
—— Chi è Qubic?
Prima di raccontare questa storia magica, è necessario spiegare chi è Qubic.
Il fondatore di Qubic è Sergey Ivancheglo, conosciuto nel settore come Come-from-Beyond, un vero e proprio genio della tecnologia: ha creato la prima blockchain PoS, NXT, e ha sviluppato la prima architettura DAG, IOTA. Nel 2022, Qubic ha lanciato la sua mainnet, affermando di voler realizzare tre cose: costruire una catena super veloce con 15,5 milioni di transazioni al secondo (20.000 volte più veloce di Visa), trasformare la potenza di mining in potenza di addestramento AI e, infine, raggiungere l'AGI (intelligenza artificiale generale) entro il 2027 (cosa che nemmeno OpenAI osa proclamare). Sembra tutto molto magico e assurdo. Perché un'ambizione così grande?
È noto che il mining tradizionale PoW ha il problema di sprecare energia, poiché la maggior parte dei meccanismi di mining richiedono ai miner di utilizzare potenza di calcolo per risolvere problemi matematici e conquistare i blocchi di ricompensa, sprecando così la potenza di calcolo per ottenere ricompense.
Il nuovo consenso di Qubic è la prova di lavoro utile (UPow), che consente ai miner di fare mining su una catena PoW mentre, sotto la supervisione di un capocantiere, possono anche addestrare i loro sistemi AI, AIGarth, il che significa che una potenza di calcolo può guadagnare due volte.
Ecco perché sono riusciti a comprare facilmente i miner di Monero, poiché i guadagni per i miner sono arrivati a essere tre volte superiori a quelli del mining diretto di XMR. Pensateci, i miner possono guadagnare di più, e di fronte a "interessi" cosa rimane della "lealtà"?
Bene, arrivati a questo punto, la logica di base dell'attacco vampirico a Monero è stata spiegata senza alcun contenuto tecnico.
—— Spieghiamo perché Monero e non Bitcoin
La risposta risiede nelle differenze nei metodi di mining.
Bitcoin utilizza macchine miner ASIC, progettate specificamente per estrarre BTC, e non possono fare altro che risolvere problemi matematici SHA-256, o al massimo estrarre monete simili a BTC. Ma il problema è che i requisiti di potenza per il mining di BTC sono estremamente elevati, i miner devono lavorare 24 ore su 24, e inoltre non è possibile addestrare AI con ASIC.
Monero, invece, utilizza l'algoritmo RandomX, che consente il mining con CPU generiche, il che significa che i suoi miner possono fare mining oggi, addestrare AI domani e persino rendere video dopodomani, potendo svolgere più ruoli.
L'intelligenza di Qubic sta proprio qui: ha puntato sui miner di CPU, permettendo loro di "utilizzare una macchina per due scopi", il che ha portato a questo attacco o controllo del 51%. Al contrario, il fossato di Bitcoin è molto solido, i miner sono bloccati nel mining con le limitate macchine ASIC e possono solo difendere Bitcoin;
—— La potenza di calcolo è diventata mercenaria
Qual è l'impatto di questa situazione? Ha strappato l'ultimo velo di protezione di alcune catene PoW, poiché si dice sempre che "la potenza di calcolo" è il fossato di una catena, più potenza di calcolo significa maggiore sicurezza, ma Qubic ci ha dimostrato con un esperimento sorprendente: per le monete estratte con CPU/GPU, la potenza di calcolo è come una mercenaria, chi paga di più se la porta via.
Ancora più sorprendente, dopo aver dimostrato di poter sconfiggere Monero, Qubic si è ritirato. Perché? Temono di far crollare completamente Monero e influenzare i propri guadagni. Infatti, una grande parte dei guadagni tripli proviene ancora dal mining di XMR, $QUBIC è solo un premio aggiuntivo in token; se Monero crolla, Qubic non può semplicemente andarsene. È meglio ritirarsi elegantemente, fare un grande evento di marketing e umiliare i sostenitori di PoW, questa sensazione di "posso ucciderti ma non lo faccio" è simile al loro slogan AGI, non sembra rivelare un certo disprezzo?
—— L'AI è davvero il becchino del PoW?
Tuttavia, al di là dell'impatto dell'evento Monero, questa situazione rappresenta un grande svantaggio per la maggior parte delle catene PoW basate su hardware generico, poiché se queste catene PoW dovessero fallire, non sarebbe il POS a ucciderle, ma potrebbe essere l'AI.
Perché dico questo? In passato, la potenza di calcolo era "solida", ognuno si concentrava sul proprio lavoro, ma nell'era dell'AI, la potenza di calcolo è diventata completamente "liquida", la potenza di calcolo di CPU e GPU fluisce come acqua, e andrà solo nei luoghi con rendimenti più elevati, mentre i "miner" su cui si basavano per sopravvivere potrebbero un giorno unirsi e fare una rivoluzione.
Anche se Qubic non è stato il cattivo, se l'esperimento ha successo, inevitabilmente alcuni concorrenti utilizzeranno questo metodo per attacchi malevoli, ad esempio, vendere allo scoperto una moneta e poi affittare potenza di calcolo per un attacco del 51%, e realizzare profitti quando il prezzo della moneta crolla. Davanti a queste catene ci sono due strade: o come BTC bloccano i miner, o continuano a fare mining con CPU/GPU, pregando di non essere presi di mira.
Onestamente, ci sono molte di queste monete, Grin, Beam, Haven Protocol, ETC, RVN, Conflux... quindi vedete, non è solo un problema di una o due monete, ma l'intero ecosistema di mining CPU/GPU è appeso a un filo.
Il problema è che la domanda di potenza di calcolo dell'AI sta crescendo esponenzialmente, e ci sono così tante piattaforme di aggregazione di potenza di calcolo AI, se tutte iniziano a disturbare e offrire prezzi stratosferici e incentivi per acquistare potenza di calcolo, molte catene PoW potrebbero vedere le loro difese crollare.
—— Un paradosso ironico
Il motivo per cui dico che questa situazione è assurda è che Qubic è esso stesso una catena AI, e il suo esperimento di attacco a Monero, anche se si è ritirato, non può evitare di danneggiarsi. La ragione è semplice: qualsiasi catena AI che richiede potenza di calcolo non dovrebbe utilizzare PoW come consenso. Perché se la potenza di calcolo è utilizzata per mantenere la sicurezza, l'AI non può essere addestrata; se la potenza di calcolo è utilizzata per addestrare l'AI, la catena non è sicura.
Quindi, la maggior parte dei progetti AI, Bittensor utilizza PoS, Render utilizza un sistema di reputazione, quasi nessuno osa toccare il PoW, tutti sanno bene questo, e non ci si aspettava che Qubic mostrasse direttamente il proprio tallone d'Achille.
Questa mossa audace di Qubic, apparentemente un evento tecnico, è in realtà una lezione per l'intero settore delle criptovalute: nell'era della libera circolazione della potenza di calcolo, la lealtà è un lusso, e la maggior parte delle catene PoW non può permettersi questo prezzo.
Qubic ha dimostrato con questo attacco che il tradizionale PoW può essere facilmente abbattuto da incentivi economici. Anche se si definisce "PoW utile", in realtà dipende da queste potenze di calcolo "mercenarie" che possono essere acquistate in qualsiasi momento da chi offre di più.
I rivoluzionari potrebbero essere rivoluzionati dal prossimo rivoluzionario.
Nota: al di là dell'assurdità e delle paure sconosciute di alcune catene PoW, possiamo confermare due fatti: 1. BTC è davvero potente; 2. @VitalikButerin ha davvero una visione lungimirante.
Ho solo voluto fare una breve spiegazione, ulteriori dettagli tecnici li aspettiamo da @evilcos.

38,38K
Rispetto alla recente crescita stabile di $ETH, le prestazioni di $SOL sembrano un po' deludenti. $4,300 contro $175, cosa si nasconde dietro questa differenza di prezzo? A mio avviso, in profondità, si tratta di una guerra sotterranea su "chi è il favorito delle istituzioni":
1) ETH ha già ottenuto il "passaporto" per entrare nel mondo della finanza tradizionale: dopo l'approvazione dell'ETF, i flussi netti accumulati hanno superato i 10 miliardi di dollari, i fondi OTC possono entrare in modo conforme, il che equivale a aprire una porta principale per le istituzioni.
D'altra parte, la richiesta di ETF di SOL è ancora in sospeso, e la situazione attuale è che ci sono problemi con i canali di finanziamento, che influenzano direttamente le prestazioni dei prezzi. Certo, questo può anche essere interpretato come un'opportunità di recupero per SOL, dato che l'ETF di SOL non è completamente fuori gioco, ma ha solo bisogno di più tempo per seguire il processo di conformità.
Il punto chiave è che la microstrategia di ETH, sotto la potenza d'acquisto di aziende quotate come SharpLink e BitMine, ha già dimostrato un certo effetto FOMO istituzionale, il che porterà a una maggiore allocazione di fondi di tesoreria aziendali, creando un'enorme energia di capitale OTC di Wall Street per ETH;
2) Attualmente, la differenza di scala delle stablecoin tra ETH e SOL è ancora molto ampia, i dati sono 137 miliardi contro 11 miliardi. Tutti si chiedono, con il gene blu americano e il Nasdaq on-chain, perché in questa guerra delle stablecoin guidata dalla politica delle stablecoin americana, Solana sia così indietro?
In realtà, non è colpa di SOL; dietro c'è l'ultimatum della decentralizzazione, della sicurezza e della profondità della liquidità dell'infrastruttura della catena. Su Ethereum, USDC (65,5 miliardi), USDT e DAI controllano saldamente il mercato delle stablecoin, e questo è dovuto alla fiducia assoluta di istituzioni come Circle e Tether nella rete di Ethereum;
Anche se i VC dietro SOL sono tutti finanziatori americani, i nuovi acquirenti di Wall Street potrebbero non preoccuparsi di tutto ciò, ma guardare solo alla differenza nei dati reali, il che potrebbe essere il motivo per cui SOL non può colmare la differenza di scala dei dati a breve termine. Tuttavia, oggettivamente parlando, la crescita delle stablecoin di SOL è in realtà buona, incluso il PYUSD di PayPal che ha scelto di concentrarsi su Solana, il che ha dato molto spazio all'immaginazione, ma è necessario avere pazienza;
3) Un tempo, l'economia on-chain di SOL era esplosiva, con volumi di scambio giornalieri di PumpFun che superavano i dieci milioni di dollari, e vari MEME e token spuntavano ovunque. Ma il problema è che ora siamo ancora nella fase di accumulo di posizioni da parte delle grandi istituzioni, e i grandi capitali si concentrano su indicatori "hard" come i canali di conformità, la profondità della liquidità e i registri di sicurezza, piuttosto che su quanti MEME ci siano on-chain nel PVP.
In altre parole, non è ancora il ciclo narrativo dominato dai piccoli investitori nel PVP; al contrario, questa vitalità on-chain è esattamente il vantaggio differenziale di SOL. Quando il ciclo di mercato cambierà e il FOMO dei piccoli investitori si riaccenderà, queste innovazioni e la base utenti accumulate da SOL potrebbero diventare il punto di innesco per la prossima ondata di mercato;
4) Come "figlio prediletto" di SBF, SOL potrebbe ancora essere influenzato dall'effetto del crollo di FTX, e la transizione da 260 dollari a 8 dollari è ancora vivida nella memoria. Anche se tecnicamente SOL è già completamente indipendente, nella memoria delle istituzioni, questa correlazione è come una cicatrice, che di tanto in tanto viene tirata in ballo.
Inoltre, il fatto di essere riusciti a risalire da 8 dollari a 175 dollari dimostra la resilienza dell'ecosistema di SOL. I team che hanno continuato a costruire nei momenti più bui sono diventati una nuova forza per ricostruire la Grande Muraglia della blockchain di SOL; questa esperienza di rinascita potrebbe rivelarsi positiva a lungo termine;
5) ETH segue una strategia di stratificazione layer2; anche se è criticata per la frammentazione della liquidità, questo si adatta perfettamente alle esigenze di isolamento del rischio delle istituzioni. D'altra parte, la strategia ad alte prestazioni e integrata di SOL, con tutto che funziona su un'unica catena, rende questo modello "All in One" un rischio concentrato agli occhi delle istituzioni.
Quindi, come puoi vedere, la partnership tra Robinhood e Arbitrum è un esempio: dal punto di vista delle istituzioni, il difetto dell'alto Gas di ETH diventa un vantaggio per selezionare transazioni di alto valore, anche se è in contrasto con l'adozione di massa; ma ora il tema principale non è l'adozione di massa, ma chi può conquistare il favore delle istituzioni di Wall Street;
6) Infine, è importante sottolineare che c'è una differenza nel consenso temporale accumulato: ETH ha 9 anni di storia, mentre SOL solo 4. Anche se progetti nativi come Jupiter e Jito hanno già dimostrato una capacità di prodotto di livello mondiale, rispetto a giganti DeFi come Uniswap, AAVE e MakerDAO, c'è una differenza nell'educazione del mercato, nel sedimentamento ecologico e nell'accumulo di fiducia.
In sintesi, il dolore della memoria di E-Guard potrebbe generare una nuova ondata di S-Guard in un nuovo FOMO di mercato, ma questa competizione, a mio avviso, è essenzialmente una dissonanza temporanea tra la narrativa istituzionale e quella degli investitori al dettaglio. Dopotutto, ETH non è stato costruito in un giorno, e la velocità di crescita di SOL è già piuttosto sorprendente.
122,82K
Tutti gridano che il toro è arrivato, ma si può sapere che questo approccio alla ricerca di Alpha e Beta nel mercato è completamente diverso. Ecco alcune osservazioni:
1) OnChain + OffChain TradiFi come narrazione principale:
Infrastruttura delle stablecoin: le stablecoin diventano il "sangue" che connette la finanza tradizionale con l'infrastruttura DeFi, bloccando il flusso cross-chain delle stablecoin, le differenze di APY Yield e l'espansione di nuove innovazioni;
Effetto "coin-stock" delle microstrategie BTC/ETH: le aziende quotate stanno integrando le criptovalute nei loro bilanci, diventando una tendenza, e trovare asset di alta qualità con potenziale di "quasi riserva" diventa fondamentale;
L'emergere di percorsi innovativi a Wall Street: i protocolli DeFi progettati specificamente per le istituzioni, i prodotti di rendimento conformi e gli strumenti di gestione patrimoniale on-chain attireranno enormi flussi di capitale. Il precedente "Code is Law" è diventato un nuovo "Compliance is King";
2) Accelerazione della narrazione puramente nativa della Crypto per eliminare il falso:
L'ecosistema di Ethereum sta vivendo un'ondata di rinascita: il prezzo di $ETH che supera i livelli porterà a una nuova ondata di innovazione nella narrazione tecnica dell'ecosistema Ethereum, sostituendo la precedente strategia Rollup-Centric, mentre il nuovo ZK-Centric diventerà il tema principale;
Competizione tra Layer1 ad alte prestazioni: non si tratta più di una gara di TPS, ma di chi riesce ad attrarre attività economiche reali, con indicatori chiave che includono: quota di TVL delle stablecoin, tasso di rendimento APY nativo, profondità della collaborazione istituzionale, ecc.;
Il crepuscolo delle altcoin: l'esistenza di una stagione di altcoin generalizzata presenta un problema fondamentale di mancanza di slancio nei fondi, mentre alcune altcoin potrebbero mostrare un'andamento "dead cat bounce". Le caratteristiche di questi asset includono: concentrazione dei token, attività della comunità, e la capacità di adattarsi a nuovi concetti come AI/RWA;
3) I MEME coin si evolvono da strumenti speculativi a standard di mercato:
Efficienza dei fondi: le altcoin tradizionali hanno una capitalizzazione di mercato sovrastimata e liquidità esaurita, i MEME coin, con il loro lancio equo e alta rotazione, diventano i nuovi preferiti dei fondi, conquistando gran parte della quota di mercato delle altcoin morenti;
Dominanza dell'economia dell'attenzione: l'influenza dei KOL, la costruzione della cultura della comunità e il modello FOMO rimangono le principali fonti di competitività, mentre la distribuzione della liquidità continua a seguire la legge dell'attenzione;
Nuovi indicatori di forza per le blockchain pubbliche: l'attività del mercato dei MEME coin sarà un importante standard per misurare la forza complessiva delle blockchain.
21,87K
Il sistema Swift appartenente al mondo della blockchain sta per arrivare? @mindnetwork ha lanciato un protocollo di messaggistica crittografica on-chain basato sulla tecnologia FHE, cercando di costruire un'infrastruttura simile a quella dei tradizionali sistemi di messaggistica interbancaria per portare gli asset finanziari tradizionali sulla blockchain. Di cosa si tratta esattamente?
1) Mind Network è un fornitore di tecnologia verticale FHE (Fully Homomorphic Encryption), poiché questa tecnologia risolve principalmente problemi legati alla privacy e alla crittografia, può quindi esprimere valore in modo flessibile nei settori ZK, DePIN, AI e nel caldo mercato RWA attuale.
Nel stack tecnologico ZK, l'FHE può fungere da importante complemento per le prove a conoscenza zero, fornendo protezione della privacy su diverse dimensioni. Nella rete DePIN, l'FHE può proteggere i dati sensibili dei dispositivi distribuiti, consentendo al contempo la necessaria computazione collaborativa della rete. Nel campo degli agenti AI, l'FHE consente all'AI di addestrarsi e inferire senza rivelare i dati privati degli utenti, il che è cruciale per le applicazioni AI in settori sensibili come la finanza e la sanità.
Nel settore RWA, l'FHE può risolvere i problemi di conformità quando si portano asset finanziari tradizionali sulla blockchain. Come si può comprendere?
La blockchain manca naturalmente di un "livello semantico"; le registrazioni delle transazioni che contengono solo indirizzi e importi non soddisfano le esigenze delle attività finanziarie riguardo allo scopo della transazione, al contesto contrattuale, alla prova d'identità e ad altre informazioni. Il protocollo di messaggistica crittografica on-chain di Mind Network può fornire a ogni transazione blockchain un "campo di annotazione crittografica", consentendo la trasmissione sicura di informazioni sensibili come prove di proprietà, lettere di credito e autorizzazioni vocali, proteggendo la privacy e soddisfacendo i requisiti di audit normativo.
2) Da un punto di vista tecnico, questa soluzione può aggiornare i portafogli Web3 da semplici strumenti di trasferimento a identità di comunicazione crittografica. Le tradizionali blockchain dipendono o da istituzioni centralizzate per gestire le informazioni di conformità, o rendono le informazioni completamente pubbliche e trasparenti, nessuna delle due è una soluzione ideale.
Con la soluzione di conformità alla privacy supportata dall'FHE, gli scenari di applicazione sono molto intuitivi: ad esempio, nei pagamenti transfrontalieri con stablecoin, è possibile crittografare e trasmettere simultaneamente lo scopo della transazione e le informazioni KYC, consentendo agli enti di regolamentazione di verificare la conformità senza ottenere il testo in chiaro; oppure, nelle transazioni di tokenizzazione immobiliare, è possibile legare in modo crittografico documenti sensibili come rapporti di valutazione e contratti di compravendita alle transazioni sulla blockchain, realizzando sia la circolazione degli asset che la protezione della privacy commerciale.
Il FHE Bridge di Mind Network ha accumulato 650.000 indirizzi attivi e 3,2 milioni di transazioni crittografiche, dimostrando la fattibilità della soluzione tecnologica. Certo, questi dati mirano e verificano una domanda di mercato sufficientemente rigida, ma quanto sia grande il potenziale di mercato e lo spazio è ancora difficile da vedere.
3) Molti costruttori di blockchain puramente nativi sono sempre più ansiosi riguardo alla direzione e ai settori di costruzione, sia che si tratti di vitalik, di VC, o semplicemente di una narrazione di Fomo, credo che d'ora in poi dovranno cedere il passo a Wall Street, sfruttando la favorevole regolamentazione crypto del governo degli Stati Uniti, per fornire il più possibile le infrastrutture di base e i servizi puri necessari per l'ingresso di Wall Street nel campo delle criptovalute, tutto bene.
Quando giganti della finanza tradizionale come BlackRock e JPMorgan stanno attivamente pianificando la tokenizzazione degli asset, ciò che li preoccupa di più non è se la blockchain può effettuare trasferimenti, ma se può soddisfare gli standard normativi come KYC e AML. Questo è esattamente il motivo reale per cui Mind Network sta pianificando in anticipo nel settore RWA. Supponendo che il mercato RWA possa raggiungere una dimensione di 30 trilioni di dollari entro il 2034, quale sarà la domanda di infrastrutture di conformità a tale dimensione?
Certo, tutti possono avere aspettative su come spartirsi la torta del mercato blu RWA. Ma in realtà, la cosa più importante è trovare la giusta posizione ecologica, proprio come nell'era del cloud computing AWS fornisce calcolo e Cloudflare fornisce CDN, anche le infrastrutture blockchain stanno andando verso una segmentazione verticale, alcune direzioni di servizi tecnologici verticali e hardcore dovranno trovare la propria specializzazione.
Chiaramente, Mind Network si concentra sullo stack tecnologico FHE, fornendo capacità di "crittografia come servizio" per diversi settori. Quindi, non è sorprendente vederlo nel settore ZK, AI e RWA.
Naturalmente, il valore dei fornitori di tecnologia alla fine dipende dal grado di esplosione delle applicazioni a valle. Sia che si tratti delle aspettative di 30 trilioni di dollari per RWA, sia del processo di autonomia degli agenti AI, ci vorrà tempo per verificarlo.

Mind Network7 ago, 16:50
✉️ Messaggistica Cifrata Onchain
Gli Asset del Mondo Reale (#RWAs) come immobili, regolamenti in stablecoin e finanza transfrontaliera richiedono più di un semplice trasferimento di valore.
Questi casi d'uso dipendono da transazioni che portano scopo, identità e tracce di audit con conformità e privacy.
#SWIFT standardizza i messaggi per la conformità e il regolamento. Le blockchain mancano ancora di un modo nativo cifrato per esprimere questi attributi.
La Messaggistica Cifrata Onchain è un nuovo protocollo che consente ai portafogli di inviare messaggi cifrati, strutturati e verificabili direttamente insieme a qualsiasi transazione onchain.
✅ Testo auto-strutturato per chiarezza semantica
✅ Generazione di chiavi basata su portafoglio per crittografia end-to-end
✅ Messaggi cifrati collegati a transazioni con tracce di audit e controllo degli accessi
La Messaggistica Cifrata Onchain combina la Crittografia Omomorfica Completa (#FHE) con tecniche crittografiche convenzionali per trasformare dati sensibili in payload onchain sicuri, accessibili solo ai destinatari previsti.
Scopri di più:

6,81K
Recentemente, nel canale YouTube "The Rollup", il CEO di @TrustWallet Eowyn Chen ha discusso con Ram Kumar, un contributore chiave di @OpenledgerHQ, riguardo alla loro profonda collaborazione. Qui di seguito, estraggo alcuni punti di vista preziosi da condividere:
1) Un po' di acqua fredda sulla teoria del "portafoglio grasso"
Durante l'intervista, Andy ha menzionato la popolare teoria del "portafoglio grasso" nel settore - un portafoglio che ha canali di ingresso per gli utenti può integrare verticalmente vari servizi? Ma la risposta di Eowyn Chen è stata molto interessante; ha affermato che il business degli utenti retail B2C è in realtà molto difficile, comportando un grande supporto clienti, maggiori responsabilità di sicurezza e frequenti aggiustamenti della roadmap del prodotto, ecc.
Molte persone vedono i 200 milioni di download di Trust Wallet e pensano che gestire un portafoglio sia un buon affare, ma lo stesso CEO sottolinea le difficoltà nel servire gli utenti retail. Questo dimostra che il "grasso" del portafoglio non è qualcosa che si può ottenere semplicemente volendo, le relazioni con gli utenti, sebbene preziose, comportano anche costi di mantenimento non indifferenti. Questo punto è piuttosto realistico e chiarisce la vera situazione di molti fornitori di servizi di portafoglio attuali.
Più importante, ha menzionato che non tutto il valore è concentrato nella parte anteriore, tutte le parti della catena del valore dovrebbero svilupparsi equamente. Questo punto può essere visto come un po' di acqua fredda sulla teoria del "portafoglio grasso" e spiega perché Trust Wallet è disposto a collaborare con progetti infrastrutturali come OpenLedger.
2) È arrivato il punto di svolta per l'AI specializzata?
Il giudizio di Ram Kumar sul percorso di sviluppo dell'AI merita attenzione. Crede che l'AI stia evolvendo da una generalità a una specializzazione, simile a come Google ha derivato applicazioni verticali come LinkedIn e YouTube dalla ricerca generale. AI generali come ChatGPT saranno come sistemi operativi, mentre in futuro ci saranno più "modelli specializzati" per casi d'uso specifici.
Questo è in linea con la mia precedente analisi sull'evoluzione delle tendenze nel settore web3AI. Trust Wallet ha scoperto che i modelli generali non risolvono i problemi specifici del settore crypto quando ha provato funzionalità AI, confermando questa tendenza. E proprio, la costruzione di modelli AI specializzati richiede dati di alta qualità in settori verticali, che è esattamente il problema che OpenLedger vuole risolvere.
3) Il dilemma del "lavoro non retribuito" nella contribuzione dei dati
Ram Kumar ha affermato che l'AI è "un'industria da mille miliardi di dollari basata su lavoro non retribuito", questa critica è piuttosto acuta. Le aziende di AI addestrano i modelli raccogliendo dati da Internet, ma i contribuenti di dati non ricevono nulla in cambio, il che è davvero un problema strutturale.
L'idea di OpenLedger è quella di far ottenere ai contribuenti di dati una quota dei profitti a lungo termine dei modelli AI, piuttosto che vendere i dati una tantum. Combinato con la capacità di pagamento globale del portafoglio, teoricamente potrebbe realizzare una distribuzione di valore senza attriti a livello transfrontaliero.
Ma qui c'è un problema centrale: come garantire la qualità dei dati? Ram stesso ha ammesso che il 90% dei contributi open source su piattaforme come Hugging Face non è utile. Se i dati contribuiti hanno un valore limitato, anche il miglior meccanismo di incentivazione è inutile.
In sintesi.
Eowyn Chen ha paragonato l'autogestione al "diritto di portare armi", sottolineando che le funzionalità AI sono opzionali e che gli utenti possono scegliere autonomamente tra convenienza e sicurezza. Questa filosofia di prodotto è corretta, ma come "presentare chiaramente le opzioni" mette davvero alla prova le capacità di design del prodotto.
Ram ha anche menzionato un giudizio interessante: il portafoglio crypto è l'unico modo per gli utenti di ottenere ricompense per la contribuzione di dati a livello globale. Questo significa che il ruolo del portafoglio potrebbe evolversi da semplice strumento di gestione degli asset a infrastruttura per l'identità digitale e la distribuzione del valore.
Nota: per ulteriori informazioni, puoi visitare il canale YouTube di The Rollup e dare un'occhiata a questa intervista.


The Rollup5 ago, 08:31
NUOVO EP: La Nuova Era della Distribuzione con Ram Kumar & Eowyn Chen
Nell'episodio di oggi, @ayyyeandy si siede con @Ramkumartweet di @OpenledgerHQ e @EowynChen di @TrustWallet per esplorare:
>La "Teoria del Portafoglio Grasso" vs Teoria del Protocollo Grasso
>Come Trust Wallet Pianifica di Integrare l'IA
>I Rischi di Sicurezza dei Portafogli Alimentati da IA
>La Visione di OpenLedger per Ricompensare i Contributori di Dati
>Perché l'IA Generica Non Funzionerà Mai per il DeFi
Link all'episodio completo qui sotto.
Timestamp:
00:00 Introduzione
00:20 Background di Ram e Eowyn in Crypto & IA
02:50 Valore per l'Utente di Trust Wallet
07:43 Annuncio di Starknet
08:10 OpenLedger sull'Evoluzione dell'IA
11:03 Futuro delle Interfacce dei Portafogli
17:12 Barriere di Custodia Autonoma per l'IA
21:22 Annuncio di Mantle
22:02 Addestrare Modelli di IA Migliori
28:19 Cosa Aspettarsi da OpenLedger e Trust Wallet
5,08K
Dopo aver riflettuto attentamente sull'ultima dichiarazione di @VitalikButerin riguardo al rapido prelievo su L2, la trovo piuttosto interessante. In breve: lui ritiene che realizzare prelievi rapidi entro un'ora sia più importante che raggiungere la Fase 2, e la logica dietro questo cambiamento di priorità merita una riflessione approfondita:
1) Il periodo di attesa di una settimana per i prelievi è diventato un grande problema nell'applicazione pratica, non solo per la scarsa esperienza utente, ma soprattutto perché ha aumentato i costi di cross-chain.
Ad esempio, soluzioni di bridging basate su intent come l'ERC-7683 richiedono che i fornitori di liquidità si facciano carico di un costo di occupazione dei fondi per una settimana, il che aumenta direttamente le spese di cross-chain. Il risultato è che gli utenti sono costretti a scegliere di fidarsi di soluzioni multi-firma con ipotesi di fiducia più deboli, il che contraddice esattamente l'intento di L2.
Pertanto, Vitalik ha proposto un sistema di prova 2-of-3 misto (ZK+OP+TEE), dove ZK e TEE possono fornire immediatezza, mentre TEE e OP hanno entrambi una valida verifica della produzione. Teoricamente, qualsiasi due sistemi possono garantire la sicurezza, evitando così il costo temporale di dover attendere che la tecnologia ZK maturi completamente.
2) Inoltre, c'è un punto: la nuova dichiarazione di Vitalik fa sembrare che stia diventando più pragmatico? Da un giovane idealista che parlava di "crociata per la decentralizzazione" e "resistenza alla censura", ora è passato a fornire indicatori concreti: prelievo in un'ora, finale in 12 secondi, tutto diventa semplice e diretto.
In precedenza, tutti si concentravano sul grado di decentralizzazione della Fase 2, ora V ha detto chiaramente che il prelievo rapido è più importante, il che equivale a riorganizzare le priorità dell'intero settore L2. Questo in realtà sta preparando la strada per la forma ultima della strategia "Rollup-Centric", rendendo Ethereum L1 un vero e proprio strato di liquidazione e centro di liquidità unificato. Una volta realizzati prelievi rapidi e aggregazione cross-chain, sarà più difficile per altre blockchain sfidare l'ecosistema di Ethereum.
Il motivo per cui piccolo V si comporta in questo modo è che il mercato ha già votato con i piedi, dicendogli che non gli importa delle dichiarazioni tecniche sulla decentralizzazione, ma si concentra di più sull'esperienza e sull'efficienza. Questo passaggio da "guidato dall'ideale" a "orientato ai risultati" riflette l'evoluzione dell'intero ecosistema di Ethereum verso una direzione più commercializzata e competitiva.
3) Ecco il problema: per raggiungere l'esperienza reale e gli obiettivi a lungo termine nella costruzione dell'infrastruttura, l'ecosistema di Ethereum probabilmente si concentrerà sulla maturità della tecnologia ZK e sul controllo dei costi.
Dalla situazione attuale, sebbene la tecnologia ZK stia progredendo rapidamente, i costi rimangono un vincolo reale. Una prova ZK da 500k+ gas significa che nel breve termine si può raggiungere solo una frequenza di invio a livello orario; per realizzare l'obiettivo finale di 12 secondi, sarà necessario fare affidamento su una rottura della tecnologia di aggregazione.
La logica qui è chiara: il costo di invio frequente di prove da un singolo Rollup è troppo alto, ma se le prove di N Rollup possono essere aggregate in una, il costo per ogni slot (12s) diventa economicamente fattibile.
Questo presenta una nuova rotta tecnologica per il panorama competitivo di L2; quei progetti L2 che riusciranno a ottenere per primi progressi nell'ottimizzazione delle prove ZK potrebbero trovare una loro posizione, mentre quelli che continuano a insistere sulla prova ottimista di Optimism probabilmente perderanno la direzione.

vitalik.eth7 ago, 00:29
È fantastico vedere così tanti L2 principali ora al primo stadio.
Il prossimo obiettivo a cui dovremmo puntare è, a mio avviso, tempi di prelievo rapidi (<1h), abilitati da sistemi di prova di validità (alias ZK).
Considero questo ancora più importante del secondo stadio.
I tempi di prelievo rapidi sono importanti perché aspettare una settimana per prelevare è semplicemente troppo lungo per le persone, e anche per il bridging basato sull'intento (es. ERC-7683), il costo del capitale diventa troppo alto se il fornitore di liquidità deve aspettare una settimana. Questo crea grandi incentivi a utilizzare invece soluzioni con assunzioni di fiducia inaccettabili (es. multisig/MPC) che minano l'intero scopo di avere L2 invece di L1 completamente indipendenti.
Se possiamo ridurre i tempi di prelievo nativi a meno di 1h a breve termine, e 12s a medio termine, allora possiamo ulteriormente consolidare l'Ethereum L1 come il luogo predefinito per emettere asset e il centro economico dell'ecosistema Ethereum.
Per fare questo, dobbiamo allontanarci dai sistemi di prova ottimistica, che richiedono intrinsecamente di aspettare diversi giorni per prelevare.
Storicamente, la tecnologia delle prove ZK è stata immatura e costosa, il che ha reso le prove ottimistiche la scelta intelligente e sicura. Ma recentemente, questo sta cambiando rapidamente. è un ottimo posto per monitorare i progressi delle prove ZK-EVM, che sono migliorate rapidamente. La verifica formale sulle prove ZK sta anche avanzando.
All'inizio di quest'anno, ho proposto una strategia di sistema di prova 2-di-3 ZK + OP + TEE che cerca di bilanciare sicurezza, velocità e maturità:
* 2 dei 3 sistemi (ZK, OP) sono senza fiducia, quindi nessun attore singolo (incluso il produttore TEE o un attaccante di canale laterale) può compromettere il sistema di prova violando un'assunzione di fiducia
* 2 dei 3 sistemi (ZK, TEE) sono istantanei, quindi ottieni prelievi rapidi nel caso normale
* 2 dei 3 sistemi (TEE, OP) sono stati in produzione in vari contesti per anni
Questo è un approccio; forse le persone opteranno invece per un pareggio ZK + ZK + OP, o ZK + ZK + pareggio del consiglio di sicurezza. Non ho opinioni forti qui, mi interessa l'obiettivo sottostante, che è essere veloci (nel caso normale) e sicuri.
Con tali sistemi di prova, l'unico collo di bottiglia rimanente per un rapido regolamento diventa il costo del gas per inviare prove on-chain. Questo è il motivo per cui a breve termine dico una volta all'ora: se provi a inviare una prova ZK da 500k+ gas (o un STARK da 5m gas) molto più spesso, aggiunge un costo aggiuntivo elevato.
A lungo termine, possiamo risolvere questo con l'aggregazione: N prove da N rollup (più tx da utenti di protocolli di privacy) possono essere sostituite da una singola prova che dimostra la validità delle N prove. Questo diventa economico da inviare una volta per slot, abilitando il gioco finale: movimento di asset nativo cross-L2 quasi istantaneo attraverso l'L1.
Lavoriamo insieme per farlo accadere.
14,05K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari