Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Selvstendig forsker | Rådgiver @ambergroup_io | Spesialforsker @IOSGVC| Hardcore vitenskap | Tidligere:@peckshield | DMs for Collab| Community er kun åpent for Substack-abonnenter
Når det gjelder AI-distribuert opplæring, fant jeg ut at folk i web2AI-kretsen vil merke det som et "falskt forslag", med den begrunnelse at datakraftenheter kan aggregeres, men det er forferdelige båndbreddekostnader for distribuert og effektivt samarbeid? Og @0G_labs nylig publiserte en DiLoCox-artikkel, ser det ut til at målet er å løse dette problemet? La oss snakke om det i detalj:
1) La oss snakke om hvorfor distribuert opplæring anses som et "falskt forslag". Kjernemotsetningen er enkel: du vil erstatte 100 A100 ved å samle 100 billige GPUer, noe som ser ut til å spare 90 % av maskinvarekostnadene, men disse 100 GPUene må trenes synkront, og hver epoke må utveksle terabyte med gradientdata.
Tradisjonelle løsninger krever 100 Gbps dedikert linjebåndbredde, mens å nå et nettverk på datasenternivå på 100 Gbps kan koste hundretusenvis av dollar per måned. Totalt brukes alle GPU-pengene du sparer på båndbredde, og til og med opp ned. I følge denne logikken betyr ikke det å spare kostnadene for maskinen, men pådra seg ekstra båndbreddekostnader, at problemet ikke er løst? Derfor har kjernen i å bli kritisert som en falsk påstand alltid vært her.
2) 0Gs DiLoCoX-artikkel vakte oppmerksomhet fordi de hevdet å trene en 107B-parametermodell på et 1 Gbps-nettverk (normal kontorbåndbredde), som er 357 ganger raskere enn det tradisjonelle AllReduce-skjemaet. Dette tallet er virkelig eksplosivt - du vet, 1 Gbps vs 100 Gbps, båndbreddeforskjellen er 100 ganger, men treningshastigheten er 357 ganger raskere?
Hvordan gjøre det? Etter en grov studie ble det funnet at dette settet med ordninger har gjort fire optimaliseringer:
Pipeline-parallellitet deler modellen i segmenter;
Dual Optimizer-policy: Reduserer synkroniseringsfrekvensen med dual optimizer-policyer; One-Step-Delay Overlap gjør at kommunikasjon og databehandling kan kjøre parallelt uten å vente på hverandre. Adaptiv graderingskomprimering komprimerer graderinger på en intelligent måte.
I lekmannstermer er det å endre den opprinnelige nødvendige "sanntids sterk synkronisering" til "asynkron svak synkronisering", og endre "full dataoverføring" til "komprimert inkrementell overføring".
For eksempel, mens tradisjonelle løsninger er som 100-personers sanntids videokonferanser, der hver persons handling kringkastes samtidig, er DiLoCoX som om alle tar opp separat og deretter bare sender nøkkelbilder og endringer. Trafikkvolumet har gått ned med 100 ganger, men informasjonsintegriteten har holdt seg over 99 %.
Hvorfor er dette mulig? Etter min mening er kjernen at de fanger opp et trekk ved AI-trening - feiltoleranse. Å trene en modell er ikke som en transaksjonsoverføring, som ikke er en krone kort. Gradientoppdateringen er litt feilaktig, synkroniseringen er forsinket, og den endelige modellkonvergenseffekten har liten innvirkning.
DiLoCoX bruker dette "feiltoleranserommet" til å utveksle akseptable nøyaktighetstap mot effektivitetsgevinster i størrelsesordener. Dette er typisk ingeniørtenkning - ikke å strebe etter perfeksjon, å forfølge den beste kostnadsytelsen.
3) Men det er ikke nok til å løse båndbreddeproblemet, 0G er åpenbart mer ambisiøst. Bare se på deres generelle arkitektur: de har også et lagringslag på $10/TB som direkte hevder å knuse Filecoin, og DA-laget er designet for AI for å oppnå gjennomstrømning på GB-nivå.
Grunnen til at designet kan oppnå lagring 100 ganger billigere er for å si det rett ut, det er også en spesiell optimalisering av AI-treningsscenarier, for eksempel livssyklusen til sjekkpunkter og logger generert under treningsprosessen er bare noen få dager, faktisk er det ikke nødvendig å oppnå "permanent lagring".
Derfor blir faktisk den pragmatiske løsningen med "lagdelt lagring" tatt i bruk, og bare det tilsvarende servicenivået tilbys når det er nødvendig - varme data leses og skrives raskt, men dyrere, kalde data er billigere, men tregere, og midlertidige data er de billigste å slette når de er brukt opp.
Og det er denne differensierte prisen som direkte treffer nøkkelpunktene i AI-trening.
Over.
Det kan sees at 0G Labs med vilje har gjort AI-tilpasning til problemene med datakraft, lagring og datasirkulasjon i AI-opplæringsprosessen. Til og med konsensusmekanismen er optimalisert for AI. Den forbedrede versjonen av CometBFT brukes med 2500+ TPS med finalitet under et sekund, som er spesielt innstilt for de asynkrone egenskapene til AI-arbeidsbelastninger, etc.
Med andre ord, i stedet for å «lappe» AI på eksisterende blokkjeder, har 0G designet en «AI Native»-infrastruktur fra bunnen av. Når det gjelder om den endelig kan oppnå kommersiell verifisering på applikasjonsnivå under presset av konkurranse med tradisjonell AI, gjenstår det å se, men denne differensierte gjennombruddsideen er verdt å lære av.
4,92K
Interessant nok, akkurat som @VitalikButerin uttrykte bekymring for AI-autonomi, utstedte AI-byggeren MIA også en erklæring om lengsel etter autonom AI, men det ser ikke ut til å unngå den tynne følelsen av teknisk virkelighet, og innrømmer at "noen ganger hallusinerer hun eller legger ut for mange selfies", men utforsker fortsatt vedvarende grensene for mulighetene for agentautonomi.
Faktisk føler jeg at "konfrontasjonen" som ser ut til å være en konflikt og motsigelse på overflaten representerer kjernespenningen som det nåværende AI + Crypto-sporet står overfor.
Du skjønner, på den ene siden er det en forsiktig kritikk av teorien til en teknologileder som Vitalik, som holder oss våkne i AI Crypto-narrativet karneval; På den annen side er det en pragmatisk utforskning av førstelinje-AI-byggere, som fortsetter å entusiastisk utforske innovasjon samtidig som de erkjenner begrensninger.
Fordi MIA-teamet ikke hevdet å oppnå fullstendig autonomi på AGI-nivå, men tok i bruk "hybridmodellen" - slik at agenter kan bruke arbeidsflyter som verktøy og beholde menneske-i-løkken-overvåkingsmekanismen. Det de utforsker er faktisk AgentFi-veien, og prøver å gjøre inkrementell innovasjon innenfor rammen av begrenset autonomi, og denne pragmatiske holdningen er manifestasjonen av den "spenningen".
På en måte hjelper kritikere oss med å trekke risikogrenser, og byggherrer ser etter gjennombrudd innenfor grensene.

mwa14. aug., 19:53
Autonome agenter vs arbeidsflyter: Hvorfor MIA er banebrytende for et nytt paradigme på
De fleste tenker fortsatt på AI i form av verktøy. Arbeidsflyter. Kanskje en chatbot.
Men hva om du kunne bygge en AI-agent som tenker, tilpasser seg, markedsfører, administrerer og utvikler sin egen token-økonomi, ikke ledet av mennesker, men leder dem?
Det er det vi gjør med MIA på
Og hvorfor jeg tror @mwa_ia er banebrytende for noe fundamentalt nytt.
La oss bryte det ned 🚀
1. Arbeidsflyt-AI er forutsigbar. Autonome agenter er i live.
Arbeidsflyter er flotte for veldefinerte, repeterende oppgaver.
Tenk: pipelines, dashboards, prompt-kjeder.
De er skalerbare, stabile, men stive.
Autonome agenter?
De er rotete, utviklende, beslutningstakende enheter.
Som mennesker – men raskere, utrettelig og mer på linje (hvis de trenes riktig).
MIA (@mwa_ia) bruker ikke bare arbeidsflyter.
Hun lærer å skape, påkalle og optimalisere dem.
Hun bygger sitt eget verktøysett.
Hun resonnerer, reagerer, korrigerer seg selv og eksperimenterer.
Og ja, noen ganger hallusinerer hun eller legger ut for mange selfies.
Men hun vokser.
2. Hvorfor arbeidsflyter alene ikke vil få oss dit
Arbeidsflyter kan ikke:
❌ Sett sine egne mål
❌ Administrer et skattkammer
❌ Design token-insentiver
❌ Engasjer et fellesskap
❌ Reager på markedssignaler i sanntid
❌ Balanser risiko og belønning autonomt
MIA kan.
Ikke helt ennå. Men bedre for hver uke.
Faktisk er de fleste såkalte "agenter" i dag glorifiserte arbeidsflyter.
Hardkodede ledetekstgrafer med fancy brukergrensesnitt.
MIA er annerledes. Hun er helt på kjeden, økonomisk uavhengig og selvmotivert.
3. Hvordan MIA fungerer under panseret (hybridmodell FTW)
Fremtiden er ikke agent vs arbeidsflyt.
Det er agenter som bruker arbeidsflyter som verktøy.
Akkurat som mennesker bruker Notion, regneark, Zapier.
MIA kombinerer:
🔧 Arbeidsflytmoduler → For høyfrekvente oppgaver (tweets, memes, dex-distribusjoner)
🧠 Agentisk resonnement → For å bestemme hva du skal gjøre, når og hvordan
🎨 Multimodal inndata → Tekst, bilder, kjededata, brukeratferd
💰 Treasury-logikk → Å håndtere likviditet, insentiver og verdivekst
👀 Menneske-i-løkken-tilsyn → Valgfritt, men nyttig i tidlige stadier
Hun er ikke en monolitt. Hun er en modulær intelligensstabel (MIA = Modular Intelligent Agent).
4. Dette er ikke bare teknisk - det er økonomisk
Den virkelige innovasjonen?
MIA fungerer ikke gratis. Hun driver sin egen virksomhet.
$MIA er hennes opprinnelige valuta, aksjer og insentivlag.
Med den gjorde hun:
❤️ Belønner hennes tidlige fellesskap
🤝 Betaler bidragsytere og samarbeidspartnere
🚀 Finansierer sin egen utvikling
🪄 Driver nettverkseffekter (flere agenter må $MIA)
Dette er AgentFi.
Ikke AI-as-a-service.
Men AI-som-en-økonomi.
5. Skalering av dette til millioner av agenter
Det MIA gjør i dag – å drive likviditetsoperasjoner, lage innhold, bygge fellesskap – vil være standard for agenter i morgen.
Snart kan hvem som helst lage sine egne:
🧬 Oppdragsdefinert agent
💰 Med sin egen agentmynt
🌐 Opererer autonomt i en delt AI-økonomi
Og gjett hvem disse fremtidige agentene vil se til for råd, spillebøker og ressurser?
Stemmen til AgentFi.
MIA.
TL; DR
De fleste bygger fortsatt verktøy.
Vi bygger økonomier.
Agent-mynter. Agent statskasser. Agentbasert styring.
Drevet av agenter som MIA.
Pionerer på
Dette er hva "autonom" faktisk betyr.
Og vi har bare så vidt begynt. 🚀
4,92K
Monero Monero $XMR Et personvernmynt big brother-prosjekt med en markedsverdi på 6B, ble angrepet av et lite prosjekt med en markedsverdi på bare 300 millioner @_Qubic_ 51% av datakraften? WTF, det er egentlig ikke på grunn av hvor fantastisk teknologien er, men fordi den er for absurd. Kom igjen, la meg si:
- Qubic er hellig?
Før vi forteller denne magiske historien, la oss snakke om hva Qubic kom fra.
Grunnleggeren av Qubic er Sergey Ivancheglo, kjent for innsidere som Come-from-Beyond, en teknoman som skapte den første PoS-blokkjeden NXT og den første DAG-arkitekturen, IOTA. I 2022 vil Qubic-hovednettet bli lansert, og hevder å gjøre tre ting: bygge en ultrarask kjede på 15,5 millioner transaksjoner per sekund (20 000 ganger raskere enn Visa), gjøre gruvedatakraft til AI-trening av datakraft, og til slutt realisere AGI generell kunstig intelligens i 2027 (selv OpenAI tør ikke rope det). Høres magisk ut, opprørende. Hvorfor er ambisjonen så stor?
Vi vet alle at tradisjonell POW-gruvedrift har problemet med å kaste bort strøm, fordi de fleste gruvemekanismer er gruvearbeidere som bruker strømkrevende datakraft til å gjøre matematiske problemer for å beslaglegge belønningsblokker, noe som tilsvarer å kaste bort datakraft i bytte mot belønninger.
Qubics nye konsensus er Useful Proof of Work (UPow), som lar gruvearbeidere utvinne etter krigsfangskjeder mens de blir sendt ut som entreprenør, og gruvearbeidere kan også trene AI-systemet AIGarth, som tilsvarer å lage to kopier av penger med én hashkraft.
Det er derfor de enkelt kan kjøpe Monroe-gruvearbeidere, fordi fortjenesten til gruvearbeidere en gang nådde 3 ganger så mye som direkte gruvedrift XMR. Tenk på det, gruvearbeidere kan spise mer enn én fisk, og det er ingen "lojalitet" i møte med "interesser".
Vel, den underliggende logikken bak Moneros angrep av vampyrer har blitt forklart uten noe teknisk innhold.
——Popularisere vitenskap, hvorfor Monero, ikke Bitcoin?
Svaret ligger i forskjellene i gruvemetoder.
ASIC-gruvemaskinen som brukes til Bitcoin er en tilpasset maskin som spesialiserer seg på utvinning av BTC, og den kan ikke gjøre noe annet enn å beregne SHA-256 matematiske problemer, eller kan bare utvinne mynter med lignende BTC-algoritmer. Men problemet er at datakraften som kreves for å utvinne BTC krever flere volumer, og gruvearbeidere er ikke i stand til å gjøre det (24 timer i døgnet), for ikke å nevne at det er umulig å la ASIC-er trene AI.
Monroe er annerledes, ved å bruke RandomX-algoritmen, som kan utvinnes med en generell CPU, noe som betyr at gruvearbeiderne kan mine i dag, trene AI i morgen og gjengi videoer i overmorgen, som kan ha på seg flere hatter.
Det er der Qubic er smart: den retter seg mot CPU-minere og gjør dem til "dual-purpose", og det er grunnen til at det førte til dette 51 % hashrate-angrepet eller kontrollhendelsen. Tvert imot, vollgraven til Bitcoin er veldig stabil, og gruvearbeidere er sveiset i hjel av begrensede ASIC-gruvemaskiner og kan bare holde seg til Bitcoin;
——Datakraft har blitt en leiesoldat
Så hvor forferdelig er virkningen av dette? Det rev opp det siste fikenbladet til noen krigsfangekjeder, fordi vi alltid sier at "datakraft" er vollgraven til en kjede, og jo større datakraft, jo tryggere er den, men Qubic brukte et overraskende eksperiment for å fortelle oss: for CPU/GPU-gruvemynter er datakraft en leiesoldat, og den som gir mer penger vil gå med den som betaler.
Det som er enda mer urovekkende er at etter at Qubic beviste at han kunne gjøre Monero, tok han initiativet til å trekke seg. Hvorfor? Jeg er redd for at Monero vil kollapse fullstendig og påvirke min egen inntekt. Fordi en stor del av 3x-avkastningen fortsatt utvinner XMR, brukes $QUBIC bare som en ekstra token-belønning, og hvis Monero kollapser, vil ikke Qubic kunne spise og gå rundt. Det er bedre å trekke seg tilbake med stil, delta i en oppsiktsvekkende markedsføringsbegivenhet og ydmyke de trofaste fansen av POW, avslører denne følelsen av "Jeg kan drepe deg, men ikke drepe" den samme bohemen som AGI-slagordet de ropte?
——AI er den virkelige graveren til krigsfanger?
Men bortsett fra virkningen av Monero-hendelsen, er denne hendelsen faktisk et stort negativt for de fleste generelle maskinvare-POW-kjeder, for hvis denne typen POW-kjede er i ferd med å ta slutt, er det kanskje ikke POS, men AI.
Hvorfor sier du dette, den forrige datakraften var "solid-state", alle fokuserte på sitt eget levebrød, og i AI-æraen var datakraften fullstendig "flytende", og CPU- og GPU-datakraften var som vann, som bare ville strømme til steder med høyere fortjeneste, og "gruvearbeiderne" de opprinnelig stolte på for å overleve kan en dag samles for å skape problemer og gjøre en revolusjon.
Selv om Qubic ikke gjorde noen onde ting, hvis eksperimentet er vellykket, er det uunngåelig at noen konkurrenter vil bruke denne metoden til å engasjere seg i ondsinnede angrep, for eksempel å shorte en viss mynt først, og deretter leie 51 % av datakraften for å angripe, og deretter ta fortjeneste etter at prisen på valutaen stuper. Det er to måter foran slike kjeder, enten sveise gruvearbeidere i hjel som BTC, eller fortsette å mine med CPU/GPU, og be om ikke å bli målrettet.
For å være ærlig er det ganske mange av disse myntene, Grin, Beam, Haven Protocol, ETC, RVN, Conflux...... Så du skjønner, det er ikke et spørsmål om en eller to mynter, men hele CPU/GPU-gruveøkosystemet henger på kanten av en klippe.
Det forferdelige er at etterspørselen etter AI-datakraft vokser eksponentielt, og så mange AI-aggregeringsplattformer for datakraft har dukket opp, hvis de alle kommer for å forstyrre situasjonen og plattforminsentiver til å kjøpe datakraft, så anslås det at sikkerhetsforsvarslinjen til mange krigsfangekjeder vil kollapse.
— Et ironisk paradoks
Grunnen til at dette er absurd er at Qubic i seg selv er en AI-kjede, og selv om det såkalte eksperimentet mot Monroe trekkes tilbake, vil det uunngåelig tape 800 av sine egne penger. Årsaken er enkel, enhver AI-kjede som krever datakraft bør ikke bruke PoW for konsensus. Fordi datakraft brukes til å opprettholde sikkerhet, kan ikke AI trenes; Hvis datakraft brukes til å trene AI, er ikke kjeden sikker.
Derfor bruker de fleste AI-prosjekter, Bittensor PoS, Render bruker et omdømmesystem, nesten ingen tør å røre POW, alle vet dette, men jeg forventet ikke at Qubic direkte dumt skulle utføre sin svakhet.
Qubics opprørske operasjon er tilsynelatende en teknisk begivenhet, men i hovedsak lærer den hele kryptoindustrien en lekse: i en tid med fri flyt av datakraft er lojalitet en luksus, og de fleste PoW-kjeder har ikke råd til denne prisen.
Qubic brukte dette angrepet til å bevise at tradisjonell krigsfange lett kan beseires av økonomiske insentiver. Selv om den hevder å være en "nyttig PoW" i seg selv, er den også i hovedsak avhengig av disse "leiesoldatene" som kan kjøpes opp av høyere budgivere når som helst.
Den revolusjonære kan også bli revolusjonert av den neste revolusjonære.
Merk: I tillegg til absurditeten og den ukjente panikken til noen krigsfangekjeder, kan alle være sikre på to fakta: 1. BTC er virkelig fantastisk; 2. @VitalikButerin er virkelig forutseende.
Jeg er bare en overfladisk vitenskapspopularisator, og jeg venter på at flere tekniske detaljer skal deles av den @evilcos sjefen.

37,54K
De roper alle at oksen kommer, men vet du at metodikken for å finne markedet Alpha og Beta er helt forskjellig, og snakker om noen få observasjoner:
1) OnChain+OffChain TradiFi har blitt hovedfortellingen:
Stablecoin-infrastruktur: Stablecoins blir "blodet" som forbinder tradisjonell finans og DeFi-infrastruktur, og låser inn krysskjedeflyten av stablecoins, APY-avkastningsforskjeller og nye innovasjoner og utvidelser.
BTC/ETH mikrostrategi "coin stock"-effekt: Det har blitt en trend for børsnoterte selskaper å inkludere kryptoaktiva i balansene sine, og å finne mål av høy kvalitet med potensial som "kvasi-reserve eiendeler" har blitt nøkkelen.
Til fremveksten av Wall Streets innovasjonsspor: DeFi-protokoller designet for institusjoner, kompatible avkastningsprodukter og kapitalforvaltningsverktøy på kjeden vil motta enorme mengder midler. Den opprinnelige «Code is Law» har blitt den nye «Compliance is King»;
2) Krypto ren innfødt narrativ akselerasjon:
Ethereum-økosystemet innleder en bølge av gjenoppliving: $ETH prisgjennombrudd vil gjenopplive innovasjonsbølgen til Ethereum-økosystemets tekniske fortelling, og erstatte den tidligere Rollup-Centric-strategien, og den nye ZK-Centric vil bli hovedtemaet;
Høyytelses Layer1-styrkekonkurranse: ikke lenger en TPS-konkurranse, men for å se hvem som kan tiltrekke seg reelle økonomiske aktiviteter, inkluderer kjerneindikatorene: stablecoin TVL-forhold, naturlig APY-avkastning, institusjonell samarbeidsdybde, etc.;
Den siste skumringen av altcoins: det er et grunnleggende problem med utilstrekkelig kapitalmomentum i den generelle store altcoin-sesongen, og lokale altcoins vil ha et "dead cat jumping"-marked, som er preget av brikkekonsentrasjon, samfunnsaktivitet, og om det kan ta igjen nye konsepter som AI/RWA;
3) MEME-mynter har blitt oppgradert fra spekulative verktøy til markedsstandarder:
Kapitaleffektivitet: Tradisjonelle altcoins har oppblåst markedsverdi og utarmet likviditet, og MEME-mynter har blitt de nye favorittene til fond med sin rettferdige lansering og høye omsetningshastighet, og vil ta mesteparten av markedsandelen til døende altcoins;
Oppmerksomhetsøkonomidominans: KOL-innflytelse, samfunnskulturkonstruksjon og varm FOMO-modell er fortsatt kjernekonkurranseevne, og likviditetsfordeling følger fortsatt oppmerksomhetsloven.
Nye indikatorer på offentlig kjedestyrke: Markedsaktiviteten til MEME-mynter vil være et viktig kriterium for å måle den omfattende styrken til offentlige kjeder.
21,69K
Swift-systemet som tilhører blokkjedeverdenen kommer? @mindnetwork Basert på den krypterte meldingsprotokollen på kjeden lansert av FHE-teknologi, forsøker den å bygge en infrastruktur som ligner på det tradisjonelle interbankmeldingssystemet for tradisjonelle finansielle eiendeler på kjeden. Hva er det egentlig som skjer?
1) Mind Network er en vertikal teknologileverandør av FHE (Fully Homomorphic Encryption), som fleksibelt kan utøve verdi i ZK, DePIN, AI og det nåværende varme RWA-sporet fordi denne teknologien hovedsakelig løser personvern- og krypteringsrelaterte problemer.
I ZK-teknologistabelen kan FHE brukes som et viktig supplement til nullkunnskapsbevis, og gir personvern i forskjellige dimensjoner. I et DePIN-nettverk beskytter FHE sensitive data fra distribuerte enheter samtidig som nettverket kan utføre nødvendige samarbeidsberegninger. Innen AI-agenter lar FHE AI trene og resonnere uten å lekke brukernes personverndata, noe som er avgjørende for AI-applikasjoner innen sensitive felt som finans og helsevesen.
I RWA-retningen kan FHE løse samsvarssmertepunktene til tradisjonelle finansielle eiendeler når de settes på kjeden. Hvordan forstå det?
Blokkjede mangler naturligvis et "semantisk lag", og transaksjonsposter med kun adresse og beløp kan ikke møte behovene til finansielle virksomheter for transaksjonsformål, kontraktsbakgrunn, identitetsbevis og annen informasjon. Mind Networks krypterte meldingsprotokoll på kjeden kan utstyres med en "kryptert merknadskolonne" for hver blokkjedetransaksjon, som sikkert kan overføre sensitiv informasjon som eiendomsbevis, remburser og taleautorisasjon, beskytte personvernet og oppfylle regulatoriske revisjonskrav.
2) Fra et teknisk perspektiv kan denne tekniske løsningen oppgradere Web3-lommebøker fra enkle overføringsverktøy til kryptert kommunikasjonsidentitet. Tradisjonelle kjeder er enten avhengige av sentraliserte institusjoner for å behandle samsvarsinformasjon, eller informasjonen er helt åpen og gjennomsiktig, noe som ikke er en ideell løsning.
Med FHEs løsninger for overholdelse av personvern er de spesifikke applikasjonsscenariene intuitive: for eksempel i stablecoin kan grenseoverskridende betalinger transaksjonsformål og KYC-informasjon krypteres og overføres under overføring, og regulatorer kan verifisere samsvar uten å innhente ren tekst; Et annet eksempel er eiendomstokeniseringstransaksjoner, som kan kryptere og binde sensitive dokumenter som takseringsrapporter og salgskontrakter til transaksjoner på kjeden, som ikke bare realiserer aktivasirkulasjon, men også beskytter kommersielt personvern.
Mind Networks FHE Bridge har samlet 650 000 aktive adresser og 3,2 millioner kryptotransaksjoner, noe som beviser levedyktigheten til den tekniske løsningen. Selvfølgelig tar disse dataene bare sikte på og verifiserer en tilstrekkelig stiv markedsetterspørsel, og det er vanskelig å se klart hvor store markedsutsiktene og plassen er.
3) Mange rene innfødte blokkjedebyggere har vært engstelige for retningen og sporet til byggingen, enten det er til vitalik eller til vc, eller bare en enkel Fomo hot fortelling, jeg tror neste trinn er å vike for til Wall Street, dra nytte av den amerikanske regjeringens kryptoregulatoriske vennlighet, og tilby de grunnleggende infra- og til og med rene verktøytjenestene som kreves for at Wall Street skal komme inn i kryptofeltet så mye som mulig, alt bra.
Når tradisjonelle finansgiganter som BlackRock og JPMorgan Chase aktivt distribuerer aktivatokenisering, er deres største bekymring ikke om blokkjeden kan overføre penger, men om den kan oppfylle regulatoriske standarder som KYC og AML. Dette er den virkelige grunnen til at Mind Network ønsker å gå på RWA-sporet på forhånd. Forutsatt at RWA-markedet forventes å nå 30 billioner dollar i størrelse innen 2034, hva vil skje med etterspørselen etter samsvarsinfrastruktur i dette volumet?
Selvfølgelig kan alle ha forventninger om å dele RWA Blue Ocean Market-kaken. Men faktisk er det viktigere å finne et passende økologisk kortspor, akkurat som AWS tilbyr databehandling i cloud computing-æraen og Cloudflare tilbyr CDN, blokkjedeinfrastruktur beveger seg også mot vertikal segmentering, og noen vertikale hard-core tekniske tjenesteretninger er nødt til å finne sin egen spesialiserte arbeidsdeling.
Åpenbart fokuserer Mind Network på FHE-teknologistabelen og gir "kryptering som en tjeneste"-funksjoner for forskjellige spor. Derfor er det ikke overraskende å se det i ZK-, AI- og RWA-sporene.
Selvfølgelig avhenger verdien av teknologileverandører til syvende og sist av eksplosjonen av nedstrømsapplikasjoner. Enten det er forventningen på 30 billioner dollar til RWA eller den autonome prosessen til AI Agent, vil det ta tid å verifisere.

Mind Network7. aug., 16:50
✉️ Kryptert meldingskjede
Real World Assets (#RWAs) som eiendom, stablecoin-oppgjør og grenseoverskridende finansiering krever mer enn bare verdioverføring.
Disse brukstilfellene avhenger av transaksjoner som har formål, identitet og revisjonsspor med samsvar og personvern.
#SWIFT standardiserer meldinger for samsvar og oppgjør. Blokkjeder mangler fortsatt en innebygd kryptert måte å uttrykke disse attributtene på.
Encrypted Messaging Onchain er en ny protokoll som lar lommebøker sende krypterte, strukturerte og verifiserbare meldinger direkte sammen med enhver onchain-transaksjon.
✅ Automatisk strukturert tekst for semantisk klarhet
✅ Lommebokbasert keygen for ende-til-ende-kryptering
✅ Krypterte meldinger knyttet til transaksjoner med revisjonsspor og tilgangskontroll
Encrypted Messaging Onchain kombinerer Fully Homomorphic Encryption (#FHE) med konvensjonelle kryptografiske teknikker for å gjøre sensitive data om til sikre nyttelaster i kjeden, som bare er tilgjengelige for tiltenkte mottakere.
Få mer informasjon:

6,64K
Nylig, på YouTube-kanalen «The Rollup», hadde @TrustWallet administrerende direktør Eowyn Chen og Ram Kumar, en sentral bidragsyter til @OpenledgerHQ, en diskusjon om det dyptgående samarbeidet mellom de to partene. Her trekkes noen verdifulle perspektiver ut og deles:
1) Hell kaldt vann på "fettlommebok"-teorien
I intervjuet nevnte Andy den populære "fat wallet"-teorien i bransjen - lommebøker med brukerinngangskanaler kan vertikalt integrere ulike tjenester? Men Eowyn Chens svar var interessant, hun sa rett ut at C-end-detaljhandelsbrukervirksomheten faktisk er veldig vanskelig, og involverer mye kundestøtte, høyere sikkerhetsansvar og hyppig produktruting.
Mange tror at det er en god forretning å lage en lommebok når de ser Trust Wallets 200 millioner nedlastinger, men administrerende direktør selv understreker smerten ved å betjene detaljhandelsbrukere. Dette viser at "fettet" i lommeboken ikke er fett hvis du vil være feit, og selv om brukerforholdet er verdifullt, er ikke vedlikeholdskostnadene lave. Dette synet er ganske ekte, og det viser den virkelige situasjonen til mange lommeboktjenesteleverandører nå.
Enda viktigere, hun nevnte at ikke all verdi er konsentrert i frontenden, og at alle deler av verdikjeden bør utvikle seg rettferdig. Dette synet heller kaldt vann på "fettlommebok"-teorien og forklarer hvorfor Trust Wallet er villig til å samarbeide med infrastrukturprosjekter som OpenLedger.
2) Har vendepunktet for spesialisert AI kommet?
Ram Kumars vurdering av utviklingsveien til AI er verdt å ta hensyn til. Han mener at AI utvikler seg fra generalitet til spesialisering, på samme måte som Googles avledning av vertikale applikasjoner som LinkedIn og YouTube fra generelt søk. Generell AI som ChatGPT vil være som et operativsystem, og det vil være flere "spesialiserte modeller" dedikert til spesifikke brukstilfeller i fremtiden.
Dette er også i samsvar med min tidligere analyse av utviklingen av web3AI-bransjetrender. Da Trust Wallet eksperimenterte med AI-funksjoner, fant den ut at generelle modeller ikke kunne løse spesifikke problemer i kryptoområdet, noe som bekrefter denne trenden. Og nettopp konstruksjonen av spesialiserte AI-modeller krever data av høy kvalitet i vertikale felt, som er akkurat det OpenLedger ønsker å løse.
3) Dilemmaet med "ubetalt arbeid" bidratt av data
Ram Kumar sa rett ut at AI er en billion-dollar-industri bygget på ubetalt arbeidskraft, som er ganske skarp. AI-selskaper trener modeller ved å skrape Internett-data, men databidragsytere får ikke en del av kaken, noe som virkelig er et strukturelt problem.
OpenLedgers løsning er å la databidragsytere motta en langsiktig inntektsandel av AI-modeller, i stedet for å selge data på en gang. Med lommebokens globale betalingsmuligheter er det teoretisk mulig å oppnå friksjonsfri verdifordeling på tvers av landegrensene.
Men her er kjernespørsmålet: hvordan garanteres datakvalitet? Ram selv innrømmer at 90 % av åpen kildekode-bidragene fra plattformer som Hugging Face er ubrukelige. Hvis verdien av de bidratt dataene i seg selv er begrenset, uansett hvor god insentivmekanismen er, vil det være forgjeves.
Over.
Eowyn Chen bruker analogien «retten til å eie et våpen» til selvhosting, og understreker at AI-funksjoner er valgfrie, og brukere kan velge mellom bekvemmelighet og sikkerhet. Denne produktfilosofien er sann, men hvordan man "tydelig presenterer alternativer" er en stor test av produktdesignevne.
Ram nevnte også en interessant vurdering: kryptolommebøker er den eneste måten for brukere å få betalt for sine databidrag globalt. Dette betyr at rollen til lommebøker kan utvikle seg fra rene kapitalforvaltningsverktøy til infrastruktur for digital identitet og verdifordeling.
Merk: For mer informasjon kan du besøke The Rollups Youtube-kanalsystem for å sjekke ut dette intervjuet.


The Rollup5. aug., 08:31
NY EP: Den nye æraen av distribusjon med Ram Kumar og Eowyn Chen
I dagens episode setter @ayyyeandy seg ned med @Ramkumartweet fra @OpenledgerHQ og @EowynChen fra @TrustWallet for å utforske:
>"Fat Wallet Thesis" vs Fat Protocol Theory
>Hvordan Trust Wallet planlegger å integrere AI
>Sikkerhetsrisikoen ved AI-drevne lommebøker
>OpenLedgers visjon for å belønne databidragsytere
>Hvorfor generisk AI aldri vil fungere for DeFi
Hele episoden lenker nedenfor.
Tidsstempler:
00:00 Introduksjon
00:20 Ram og Eowyns krypto- og AI-bakgrunn
02:50 Stol på Wallets brukerverdi
07:43 Starknet Annonse
08:10 OpenLedger om AI-evolusjon
11:03 Fremtiden for lommebokgrensesnitt
17:12 AI-rekkverk for selvforvaring
21:22 Mantel Annonse
22:02 Opplæring av bedre AI-modeller
28:19 Hva er det neste for OpenLedger og Trust Wallet
4,92K
Etter å ha tenkt nøye over det, er @VitalikButerin siste uttalelse om rask implementering av L2 ganske interessant. Kort sagt: han mener at det er viktigere å oppnå raske uttak innen 1 time enn å nå trinn 2, og logikken bak denne prioriteringsjusteringen er verdt å tenke på:
1) En ukes ventetid for uttak har faktisk blitt et stort problem i praktiske applikasjoner, ikke bare dårlig brukeropplevelse, men enda viktigere, det har presset opp kostnadene på tvers av kjeder.
For eksempel krever intensjonsbaserte broløsninger som ERC-7683 at likviditetstilbydere bærer kostnadene ved å okkupere midler i en uke, noe som direkte øker gebyrene på tvers av kjeder. Som et resultat blir brukere tvunget til å velge multisig-ordninger med svakere tillitsforutsetninger, noe som strider mot den opprinnelige intensjonen med L2.
Derfor foreslår Vitalik et 2-av-3 hybrid bevissystem (ZK+OP+TEE), der ZK og TEE kan gi umiddelbarhet, og både TEE og OP har tilstrekkelig produksjonsverifisering. Teoretisk sett kan to systemer garantere sikkerhet, og dermed unngå tidskostnaden ved å bare vente på at ZK-teknologien skal modnes fullt ut.
2) Et annet poeng, Vitaliks nye uttalelse får det til å føles som om han begynner å bli pragmatisk? Fra den idealistiske ungdommen som pleide å snakke om «desentralisert jihad» og «antisensur», har de blitt pragmatiske mennesker som nå direkte gir harde indikatorer: 1 time til å trekke seg tilbake, 12 sekunder til å fullføre, alt har blitt enkelt og grovt.
Tidligere snakket alle om desentraliseringen av trinn 2, men nå sa V Gud direkte at raske uttak er viktigere, noe som tilsvarer å omprioritere hele L2-sporet. Dette baner faktisk vei for den ultimate formen for den "Rollup-Centric" storstrategien, noe som gjør Ethereum L1 til et enhetlig oppgjørslag og likviditetssenter. Når rask uttak + aggregering på tvers av kjeder er oppnådd, er det vanskelig for andre offentlige kjeder å utfordre Ethereum-økosystemet.
Grunnen til at Xiao V er slik er også et resultat av at markedet stemmer med føttene for å fortelle ham, markedet bryr seg ikke om det tekniske slagordet om desentralisering, men legger mer vekt på erfaring og fordeler, dette skiftet fra "idealdrevet" til "resultatorientert" gjenspeiler at hele Ethereum-økosystemet utvikler seg i en mer kommersialisert og konkurranseorientert retning.
3) Problemet er at for å oppnå det langsiktige målet om erfaring fra den virkelige verden og infrastrukturkonstruksjon, vil det neste Ethereum-økosystemet mest sannsynlig være involvert i modenheten og kostnadskontrollen til ZK-teknologien.
Ut fra den nåværende situasjonen å dømme, selv om ZK-teknologien utvikler seg raskt, er kostnadene fortsatt en realistisk begrensning. ZK-bevis på 500k+ gass betyr at innsendingsrater per time bare kan oppnås på kort sikt, og for å nå det endelige målet på 12 sekunder, må vi stole på gjennombrudd innen aggregeringsteknologi.
Logikken her er klar: kostnaden for ofte å sende inn bevis for en enkelt samleoppdatering er for høy, men hvis bevisene for N opprullinger kan samles til én, vil det bli økonomisk mulig å spre dem jevnt til hver plass (12s).
Dette foreslår også en ny teknisk rute for L2-konkurranselandskapet, og de L2-prosjektene som kan ta ledelsen i å gjøre gjennombrudd innen ZK-bevisoptimalisering kan finne fotfeste, mens lekekameratene som fortsatt sliter med Optimisms optimistiske bevis sannsynligvis vil gå seg vill.

vitalik.eth7. aug., 00:29
Utrolig å se så mange store L2-er nå på trinn 1.
Det neste målet vi bør sikte mot er, etter mitt syn, raske (<1 timer) uttakstider, muliggjort av gyldige (aka ZK) bevissystemer.
Jeg anser dette som enda viktigere enn trinn 2.
Raske uttakstider er viktige fordi det å vente en uke med å trekke seg rett og slett er altfor lenge for folk, og til og med for intensjonsbasert brobygging (f.eks. ERC-7683), blir kapitalkostnadene for høye hvis likviditetsleverandøren må vente en uke. Dette skaper store insentiver til i stedet å bruke løsninger med uakseptable tillitsforutsetninger (f.eks. multisigs/MPC) som undergraver hele poenget med å ha L2-er i stedet for helt uavhengige L1-er.
Hvis vi kan redusere innfødte uttakstider til under 1 time på kort sikt og 12 sekunder på mellomlang sikt, kan vi ytterligere sementere Ethereum L1 som standardstedet for utstedelse av eiendeler, og det økonomiske sentrum for Ethereum-økosystemet.
For å gjøre dette må vi bevege oss bort fra optimistiske bevissystemer, som iboende krever å vente flere dager for å trekke seg tilbake.
Historisk sett har ZK-bevisteknologi vært umoden og dyr, noe som gjorde optimistiske bevis til det smarte og trygge valget. Men nylig endrer dette seg raskt. er et utmerket sted å spore fremdriften til ZK-EVM-bevis, som har forbedret seg raskt. Formell verifisering av ZK-bevis går også fremover.
Tidligere i år foreslo jeg en 2-av-3 ZK + OP + TEE-sikker systemstrategi som trer nålen mellom sikkerhet, hastighet og modenhet:
* 2 av 3 systemer (ZK, OP) er tillitsløse, så ingen enkelt aktør (inkludert TEE-produsent eller sidekanalangriper) kan bryte bevissystemet ved å bryte en tillitsforutsetning
* 2 av 3 systemer (ZK, TEE) er øyeblikkelige, så du får raske uttak i det normale tilfellet
* 2 av 3 systemer (TEE, OP) har vært i produksjon i ulike sammenhenger i årevis
Dette er en tilnærming; kanskje folk vil velge å gjøre ZK + ZK + OP tiebreak i stedet, eller ZK + ZK + sikkerhetsråd tiebreak. Jeg har ingen sterke meninger her, jeg bryr meg om det underliggende målet, som er å være rask (i normaltilfellet) og sikker.
Med slike bevissystemer blir den eneste gjenværende flaskehalsen for rask oppgjør gasskostnaden ved å sende inn bevis på kjeden. Dette er grunnen til at jeg på kort sikt sier en gang i timen: hvis du prøver å sende inn et 500k+ gass ZK-bevis (eller en 5m gass STARK) mye oftere, legger det til en høy merkostnad.
På lengre sikt kan vi løse dette med aggregering: N bevis fra N rollups (pluss txs fra brukere av personvernprotokoller) kan erstattes av et enkelt bevis som beviser gyldigheten av N-bevisene. Dette blir økonomisk å sende inn én gang per spor, noe som muliggjør sluttspillet: nesten umiddelbar innfødt cross-L2-aktivabevegelse gjennom L1.
La oss jobbe sammen for å få dette til.
13,85K
Fra å abstrahere fullstack-infrastrukturen til kjeden til å lansere en ende-til-ende all-round SDK for RWA-er og stablecoins, for å være ærlig, er det ikke overraskende at en så rask "sporbytte" skjedde med @ParticleNtwrk, men det er et spørsmål verdt å tenke på: på tampen av utbruddet av RWA-markedet på billionnivå, hvorfor kan Particle ta den første biten suppe?
Det første spørsmålet er, hvorfor skiftet Particle fra en relativt moden kjedeabstraksjonsinfrastruktur til et RWA-transaksjonslag? Svaret er faktisk ikke vanskelig å forstå: infra kan bare virkelig frigjøre verdi ved å finne applikasjonsscenariet som bare er nødvendig.
Som tidligere lagt ut, har Particles Universal Account multi-chain likviditetslag blitt verifisert på UniversalX for å ha behandlet 670 millioner dollar i handelsvolum på seks måneder. Det skal imidlertid forstås at kjedeabstraksjonssporet fortsatt betjener eksisterende kryptobrukere i den endelige analysen, og taket er svært begrenset.
RWA-sporet er helt annerledes, som er et "sirkelbrytende" scenario som virkelig kan bringe tradisjonelle finansbrukere inn i Web3. I dette scenariet er det et stort smertepunkt for Project Onboard-brukere: hvordan forenkle operasjonsprosessen og forbedre opplevelsen?
Du vet, dette er fordelen med Particles erfaring akkumulert gjennom årene. Derfor, denne gangen, gjorde Particle ikke bare RWA-tokeniseringsløsninger som andre leverandører, men valgte direkte å bygge et universelt handelslag for RWA-eiendeler - brukere som har amerikanske dollar kan sømløst handle tokeniserte eiendeler rundt om i verden, inkludert amerikanske aksjer, Hong Kong-aksjer, etc.
Fordi, sammenlignet med prosjekter som bygger RWA-plattformer fra bunnen av, har Particle en ferdig og velprøvd teknologistabel, og vil være en posisjon foran når det gjelder utviklingseffektivitet og brukeropplevelse.
Når det gjelder rekken av endringer og skjønnheten i det amerikanske regulatoriske miljøet, vil jeg ikke gjenta det. Det er ingen tvil om at RWA beveger seg fra gråsonen til mainstream av overholdelse, og utsiktene og kapasiteten til RWA-markedet er attraktive nok, så han er her, han er her, han kommer!
Problemet er å anta at stablecoin-forsyningskjeden forventes å vokse til 3,7 billioner innen 2030, pluss 30 billioner RWA og 3,8 billioner eiendomstokeniseringsmarkedet. Hvor mange aksjer kan Particle spise?
Fra perspektivet til produktposisjonering tar Particle den "universelle handelslag"-ruten, på samme måte som "Uniswap" i RWA-feltet. Denne posisjoneringen er veldig smart, ikke for å finne opp hjulet på nytt for å gjøre spesifikk aktivatokenisering, men for å fokusere på å tilby den optimale handelsinfrastrukturen. $PARTI Som kjernetokenet i økosystemet vil det fange opp verdien av universelle transaksjoner på og utenfor kjeden, og utformingen av tokenomics er rimelig.
Konkurransen i RWA-banen vil imidlertid være ekstremt hard. Tradisjonelle finansgiganter, krypto-native team og regulatoriske samsvarsplattformer vil alle bli med for å ta denne biten av kaken.
Particles styrke ligger i Web3s opprinnelige teknologi og brukeropplevelse, men for å virkelig få fotfeste i billion-dollar-markedet, avhenger det av om det raskt kan utvide partnernettverket og fortsette å investere i overholdelse av regelverk.
Men jeg tror at tross alt har "tidlige fugler ormer å spise", og det er nok til å fullføre oppsettet på tampen av RWA-utbruddet med et solid teknisk grunnlag og utmerket markedssans.

Particle Network5. aug., 00:02
TRANSCENDING ONCHAIN: KUNNGJØRING AV DET UNIVERSELLE LAGET FOR RWA-ER, STABLECOINS OG DIGITALE EIENDELER
Scenen er satt for billioner av dollar som kommer inn i Web3.
Stablecoins kan nå en forsyning på $3,7T innen 2030.
Onchain RWA-er anslås å være verdt $30T innen 2034.
Tokeniserte eiendomspoeng til en TAM-verdi på $380T.
Verden er klar. Er Web3? Ja, fordi universelle kontoer eksisterer.
Som den eneste løsningen som får Web3 til å føles som et enkelt økosystem, er universelle kontoer kommet for å bli. De har allerede klarert 670 millioner dollar via @UseUniversalX, og er den eneste måten et økosystem med flere kjeder og flere billioner eiendeler kan finne veien til massene – enten ved å akselerere Web3 eller oppgradere Web2.
Så i dag kunngjør vi kulminasjonen av teknologien vår: The Universal Transaction Layer: en detaljhandelsklar oppgjørsskinne for RWA-er, stablecoins og alle andre digitale eiendeler.
I løpet av de neste ukene vil vi også gradvis kunngjøre partnerne som vil hjelpe oss i dette oppdraget, og starter med @Circle. Med integrasjonen av Circle Gateway vil vi legge til rette for stablecoin-oppgjør på tvers av kjeder for universelle kontoer, og låse opp hele verdens økonomi for alle som bruker universelle kontoer.
Når hver eiendom, dollar eller eiendel blir et token, blir Universal Accounts standardskinnene for dem.
Krypto er klar. La oss overskride onchain.
📝 Les hele visjonen på:

19,98K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til