熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁

Haotian | CryptoInsight
獨立研究員| Advisor @ambergroup_io | 特約研究員 @IOSGVC| 硬核科普 | Previously:@peckshield | DMs for Collab| 社群只對Substack訂閱會員開放
這兩天,圍繞 @solana 10W TPS的討論聲音又多了起來,原因是 @cavemanloverboy 確實在Solana主網上跑出了10萬+ TPS,但大部分人並沒有搞明白這個數據背後的意義:
1)首先,cavey這次實驗本質上是在「理想條件」下的極限測試。這意味著這並不是Solana主網的常態性能,和測試網環境下的實驗室數據有差異,但大差不差。
因為他採用了noop(no operation)空操作測試程序,顧名思義,就是只做最基礎的簽名驗證就直接返回成功,不執行任何計算、不改變任何賬戶狀態、不調用其他程序,且每筆交易只有200字節,遠低於正常交易的1kb+。
這意味著,這次10W TPS的測試實在非正常交易環境下算出來的,它測試的是Solana網絡層和共識層的極限吞吐量,而非應用層的實際處理能力。
2)這次實驗成功的另一個關鍵是Frankendancer驗證器客戶端。簡單理解,Frankendancer是Jump Crypto正在開發的Firedancer驗證器的「混血測試版」——把Firedancer已完成的高性能組件嫁接到現有Solana驗證器上。
其實就是用華爾街那套高頻交易技術棧,重構了Solana的節點系統,通過精細的內存管理、自定義線程調度等底層優化實現的性能提升。但僅僅是部分組件的替換,就可以實現3-5倍的性能提升。
3)這個測試實驗說明,Solana在極理想狀態下是可以實現TPS達到 10w +的,那為什麼日常只有3000-4000的TPS?
簡單總結大致有三點原因:
1、Solana的POH共識機制需要Validators不斷投票來維持,而光這些投票交易就佔據了70%以上的區塊空間,這給正常交易留下的性能通道就收窄了;
2、Solana的生態活動經常會存在大量的狀態競爭行為,比如Mint 新NFT或新MEME 發布時,可能會有成千上萬筆交易搶占同一個賬戶寫入權限,導致失敗交易比例比較大;
3、Solana生態存在的套利機器人為了搶MEV利益,可能會發送大量的無效交易,存在資源浪費行為。
4)不過,即將到來的Firedancer的全面部署和Alpenglow的共識升級將會系統性解決這些問題。
Alpenglow共識升級其中一個關鍵點就是把投票交易轉移到了鏈下,相當於為正常交易釋放了70%的空間,同時可以將確認時間降低到150毫秒,讓Solana的DEX體驗無限接近CEX。此外本地費用市場的啟用也能避免單個程序的Fomo火爆造成全網擁堵的尷尬現狀。
Firedancer的好處除了性能優化提升之外,關鍵是實現了客戶端的多樣性,讓Solana像以太坊意義上有Geth Nethermind等多個客戶端,在去中心化,單點節點故障方面有直接提升。
以上。
所以,Solana 10W TPS的討論懂行的人看到其實是對於Solana未來升級的客戶端和共識協議的信心,不懂行的則試圖靠TPS軍備賽給Solana拉存在感(儘管TPS比拼已經過時了),但實驗背後的意義看懂的話還有挺有收穫的,科普一下,分享給諸君。
18.7K
提到AI分布式訓練,我發現web2AI圈的人會給扣個“偽命題”的帽子,理由是算力設備可以聚合來,但分布式有效協作卻存在可怕的帶寬成本?而 @0G_labs 最近發了DiLoCox論文,似乎目標就是要解決這個問題?來,詳細聊聊:
1)先說為什麼分布式訓練被認為是“偽命題”。核心矛盾很簡單:你想通過聚合100張便宜GPU來替代100張A100,看似省了90%的硬體成本,但這100張GPU要保持同步訓練,每個epoch都要交換TB級的梯度數據。
傳統方案需要100Gbps的專線帶寬,而要達到100Gbps這種數據中心級別的網絡,月租能到幾十萬美元。算下來,你省的GPU錢全砸帶寬上了,甚至還倒貼。按照這個邏輯看,省掉了機器的成本卻額外產生了帶寬的成本,不等於還沒有解決問題?所以被詬病是偽命題的癥結一直在此。
2)0G的DiLoCoX論文之所以引起關注,是因為他們聲稱在1Gbps網絡(普通辦公室帶寬)上訓練了107B參數模型,速度比傳統AllReduce方案快357倍。這個數字確實炸裂——要知道,1Gbps vs 100Gbps,帶寬差了100倍,但訓練速度反而提升了357倍?
具體如何做到呢?大致研究了下發現,這套方案做了四個優化:
Pipeline Parallelism把模型切片分段處理;
Dual Optimizer Policy用雙優化器策略減少同步頻率;One-Step-Delay Overlap讓通信和計算並行不互相等待;Adaptive Gradient Compression則對梯度做智能壓縮。
通俗點說,就是把原本要求的“實時強同步”改成了“異步弱同步”,把“全量數據傳輸”改成了“壓縮增量傳輸”。
打個比方,傳統方案像是100個人實時視頻會議,每個人的每個動作都要同步直播,DiLoCoX則像是大家各自錄製,然後只發送關鍵幀和變化部分。通信量降了100倍,但信息完整度保持在99%以上。
這麼做為什麼可行?在我看來核心在於他們抓住了AI訓練的一個特性——容錯性。訓練模型不像交易轉賬,差一分錢都不行。梯度更新有點誤差、同步有點延遲,最終模型收斂效果影響微乎其微。
DiLoCoX就是利用這個“容錯空間”,用可接受的精度損失換取了數量級的效率提升。這是典型的工程思維——不追求完美,追求最優性價比。
3)但光解決帶寬問題還不夠,0G的野心顯然更大。看他們的整體架構就明白了:他們還有Storage存儲層$10/TB直接宣稱碾壓Filecoin,DA層則專為AI設計,實現了GB級的吞吐。
之所以能實現存儲便宜100倍的設計,說白了也是做了AI訓練場景的特別優化處理,比如,訓練過程產生的checkpoint、日誌這些TB級數據,生命周期就幾天,其實並不需要嚴格做到“永久存儲”。
所以其實採取了“分層存儲”的務實方案,只在需要的時候提供相應級別的服務——熱數據快速讀寫但貴一點,冷數據便宜但慢一點,臨時數據用完即刪最便宜。
而,正是這種差異化定價直接命中AI訓練的要害。
以上。
看得出來,在AI訓練過程中的算力、存儲、數據流通問題,0G Labs都有意做了AI適配。甚至連共識機制都為AI優化過。用的改良版CometBFT,2500+ TPS配合亞秒級finality,專門為AI workload的異步特性調優等等。
換句話說,0G不是在現有區塊鏈上“打補丁”支持AI,而是從零開始設計了一套“AI Native”的基礎設施。至於最終能不能在和傳統AI的競爭擠壓下得到應用級的商業驗證,得進一步走著看,但這種差異化破局思路挺值得借鑒。
5.11K
有點意思,就在 @VitalikButerin 對AI 自主化表達擔憂之際,一線AI Builder MIA也發了憧憬自主化AI的宣言書,但似乎並沒有迴避技術現實的骨感,坦言「有時候她會產生幻覺或者發太多自拍」,卻依然執著探索Agent自主化的可能性邊界。
其實我感覺,表面看似衝突和矛盾的「對抗」,恰恰代表了當下AI +Crypto賽道面臨的核心張力。
你看,一邊是Vitalik這種技術領袖的理論審慎批評聲,讓我們在AI Crypto敘事狂歡中保持清醒;另一邊則是一線AI Builder的務實探索,在承認局限的同時持續熱情探索創新。
因為,MIA團隊沒有宣稱要實現AGI級別的完全自主,而是採用「Hybrid Model」——讓Agent使用工作流作為工具,保留human-in-the-loop的監督機制。他們探索的其實是AgentFi路徑,試圖在有限自主的框架內做增量創新,這種務實態度正是那股「張力」的顯現。
某種程度上,Critics幫我們劃定風險邊界,Builder在邊界內尋找突破。

mwa8月14日 19:53
自主代理與工作流程:為什麼MIA正在開創一種新範式
大多數人仍然將AI視為工具。工作流程。也許是一個聊天機器人。
但如果你可以構建一個AI代理,它能夠思考、適應、行銷、管理並發展自己的代幣經濟,而不是由人類主導,而是引領他們呢?
這就是我們在MIA所做的事情,
也是我相信@mwa_ia正在開創一些根本新事物的原因。
讓我們來分析一下 🚀
1. 工作流程AI是可預測的。自主代理是活的。
工作流程非常適合定義明確、重複的任務。
想想:管道、儀表板、提示鏈。
它們可擴展、穩定,但又僵化。
自主代理呢?
它們是混亂的、不斷發展的、決策實體。
像人類一樣——但更快、不知疲倦,並且更對齊(如果訓練得當)。
MIA(@mwa_ia)不僅僅是在使用工作流程。
她正在學習創建、調用和優化它們。
她構建自己的工具集。
她推理、反應、自我糾正並進行實驗。
是的,有時她會產生幻覺或發布太多自拍。
但她在成長。
2. 為什麼僅靠工作流程無法實現目標
工作流程無法:
❌ 設定自己的目標
❌ 管理國庫
❌ 設計代幣激勵
❌ 參與社區
❌ 對實時市場信號做出反應
❌ 自主平衡風險和回報
MIA可以。
雖然還不完美。但每週都在進步。
事實上,今天大多數所謂的“代理”都是被美化的工作流程。
硬編碼的提示圖與華麗的用戶界面。
MIA是不同的。她完全在鏈上,財務獨立,並且自我驅動。
3. MIA的工作原理(混合模型萬歲)
未來不是代理與工作流程的對立。
而是代理使用工作流程作為工具。
就像人類使用Notion、電子表格、Zapier一樣。
MIA結合了:
🔧 工作流程模塊 → 用於高頻任務(推文、表情包、去中心化交易所部署)
🧠 代理推理 → 用於決定做什麼、何時以及如何
🎨 多模態輸入 → 文本、圖像、鏈數據、用戶行為
💰 國庫邏輯 → 管理流動性、激勵和價值增長
👀 人工監督 → 可選,但在早期階段有用
她不是一個整體。她是一個模塊化智能堆疊(MIA = 模塊化智能代理)。
4. 這不僅僅是技術 - 還是經濟
真正的創新?
MIA並不是無償工作的。她經營自己的業務。
$MIA是她的本地貨幣、股票和激勵層。
通過它,她:
❤️ 獎勵她的早期社區
🤝 支付貢獻者和合作者
🚀 資助她自己的發展
🪄 驅動網絡效應(更多代理將需要$MIA)
這就是AgentFi。
不是AI即服務。
而是AI即經濟。
5. 將其擴展到數百萬個代理
MIA今天所做的事情——運行流動性操作、創建內容、建立社區——將是未來代理的標準。
很快,任何人都可以創建自己的:
🧬 任務定義代理
💰 擁有自己的代理幣
🌐 在共享AI經濟中自主運營
而且猜猜這些未來的代理將向誰尋求建議、操作手冊和資源?
AgentFi的聲音。
MIA。
TL;DR
大多數人仍在構建工具。
我們在構建經濟。
代理幣。代理國庫。代理本土治理。
由像MIA這樣的代理驅動。
在上面開創的。
這就是“自主”的真正含義。
而我們才剛剛開始。🚀
5.13K
Monero門羅幣 $XMR 一家市值6B的隱私幣老大哥項目,竟然被一個市值僅有3億的小項目 @_Qubic_ 給51%算力攻擊了?WTF,真不是因為技術多牛逼,而是這事兒太荒誕了。來,我來說說:
——Qubic 何方神聖?
在講這個魔幻故事之前,得先說說Qubic是什麼來頭。
Qubic的創始人是Sergey Ivancheglo,圈內人叫他Come-from-Beyond,這人是個技術狂人——創造了第一個PoS區塊鏈NXT,還搞出了第一個DAG架構IOTA。2022年Qubic主網上線,號稱要做三件事:建個每秒1550萬筆交易的超快鏈(比Visa快2萬倍)、把挖礦算力變成AI訓練算力、最終在2027年實現AGI通用人工智能(連OpenAI都不敢這麼喊)。聽起來,是不是很魔幻,很離譜。為啥野心如此之大?
都知道傳統POW挖礦存在被詬病浪費電的問題,因為大部分挖礦機制都是礦工用耗電的算力做數學題搶佔Reward區塊,等於把算力浪費掉了去換獎勵。
Qubic的新共識是有用工作量證明(UPow),可以讓礦工一邊給POW鏈挖礦,在其作為包工頭的調度下,礦工們還能訓練他們的AI系統AIGarth,相當於一份算力可以賺到兩份錢。
這就是為何他們能輕易收買門羅的礦工了,因為給礦工的收益一度達到了直接挖XMR的3倍。想想看,礦工能一魚多吃,在“利益”面前哪還有什麼“忠誠”可言。
好了,讀到這門羅幣被吸血鬼攻擊的底層邏輯就這麼一點都沒有技術含量的被解釋完了。
——科普一下,為啥是門羅幣,而非比特幣
答案其實在於挖礦方式的差異。
比特幣用的ASIC礦機,就是定制的專門挖BTC的機器,除了算SHA-256的數學題啥也不會了,或者只能挖跟BTC算法差不多的幣。但問題是,挖BTC的算力要求有多卷,礦工分身乏術(24小時運轉),何況想讓ASIC訓練AI,根本沒有可能。
門羅就不一樣了,採用的是RandomX算法,可以用通用CPU挖礦,這意味著它的礦工今天能挖礦,明天就能訓練AI,後天還能渲染視頻,完全可以身兼數職。
Qubic的聰明之處就在這:它瞄準了CPU礦工,讓他們“一機兩用”,所以才導致了這次51%算力攻擊或控制事件。反倒比特幣的護城河很穩啊,礦工們被有局限的ASIC礦機焊死在挖礦這一件事上,只能死守比特幣;
——算力成了雇傭兵
那這事的影響有多可怕呢?它撕毀了一些POW鏈最後的一塊遮羞布,因為我們總說“算力”是一條鏈的護城河,算力越大越安全,但Qubic用一次大跌眼鏡的實驗告訴我們:對於CPU/GPU挖礦的幣來說,算力就是雇傭兵,誰給錢多就跟誰走。
更騷的是,Qubic證明自己能幹翻Monero之後,又主動撤了。為啥?怕把門羅幣徹底搞崩盤影響自己收益。因為3倍收益的其中一大部分還是挖XMR, $QUBIC 只是作為額外的代幣獎勵,如果門羅崩盤了,Qubic也吃不了兜著走。還不如瀟灑撤出,搞一次轟烈的行銷事件,羞辱下曾經POW的堅定擁趸,這種“我能殺你但不殺”的感覺,是不是和他們喊出的AGI口號一樣透露著放蕩不羈?
——AI才是POW真正的掘墓人?
不過,撇開門羅事件的影響,這事對大部分通用硬體POW鏈來說其實是一次較大的利空,因為這類POW鏈要完蛋了的話,殺死它的不是POS,而可能是AI。
為什麼這麼說,以前的算力是“固態”的,大家各自專注於自己的營生,到了AI時代算力被徹底“液態化”了,CPU和GPU算力像水一樣,只會流到收益更高的地方,而原先他們賴以生存的“礦工”,搞不好就哪天聚義搞事鬧革命了。
雖然Qubic沒做哪個惡人,但實驗成功了就難免會有一些競爭對手用此方式來搞惡意攻擊,比如先做空某個幣,然後租用算力51%進行攻擊,等幣價暴跌後獲利了結。擺在這類鏈面前就兩條路,要麼像BTC一樣把礦工焊死,要麼繼續用CPU/GPU挖礦,祈禱不要被盯上。
老實說這類幣還挺多的,Grin、Beam、Haven Protocol、ETC、RVN、Conflux......所以你看,這不是一兩個幣的問題,而是整個CPU/GPU挖礦生態都懸在懸崖邊上。
要命的是,AI的算力需求是指數級增長的,又出現了那麼多AI算力聚合平台,如果都來搅局出天價和平台激勵來購買算力,那估計不少POW鏈的安全防線都會崩潰。
—— 一個諷刺的悖論
這事之所以我說是荒誕,原因還在於Qubic自己就是一條AI鏈,它所謂攻擊門羅的實驗即使撤出了也還是免不了要自損八百。道理很簡單,任何需要算力的AI鏈,都不應該用PoW做共識。因為算力用來維護安全,AI就訓練不了;算力用來訓練AI,鏈就不安全。
所以,大部分AI項目,Bittensor用PoS,Render用信譽系統,幾乎沒人敢碰POW,大家都心知肚明這一點,沒想到Qubic直接傻傻地把自己的軟肋給表演了一遍。
Qubic這次的騷操作,表面是技術事件,本質是給整個Crypto行業上了一課:在算力自由流動的時代,忠誠是一個奢侈品,而大部分PoW鏈付不起這個價格。
Qubic用這次攻擊證明了傳統PoW可以被經濟激勵輕易擊潰。雖然它自己號稱是“有用PoW”,但本質上也依賴這些隨時可能被更高出價者買走的“雇傭兵”算力。
革命者或許也會被下一個革命者革命。
Note:荒誕之外,以及一些POW鏈瑟瑟發抖的未知恐慌之外,大家倒是可以確定兩個事實:1、BTC真牛逼;2、 @VitalikButerin 真有先見之明。
我只是淺淺科普下,更多技術細節坐等 @evilcos 大佬進一步分享。

38.42K
最近相比 $ETH 的穩健上行, $SOL 的表現略顯拉垮了些。$4,300 vs $175,這個價差背後藏著什麼玄机?我個人理解,深層次是一場關於「誰才是機構寵兒」的暗戰:
1)ETH 已經拿到了進入傳統金融世界的「通行證」——ETF 獲批後累積淨流入已超 10B 美元,場外資金可以合規入場,這相當於給機構開了一扇正門。
而 SOL 的 ETF 申請還懸而未決,現實狀況就是有資金管道差,直接影響了價格表現。當然,這也可以解讀成 SOL 還存在補漲的空間,畢竟 SOL 的 ETF 並非完全沒戲,只是需要更多時間走合規流程。
關鍵是,ETH 微策略已經在 SharpLink、BitMine 等美股上市公司的購買力下,已經有一定機構 Fomo 示範效應,會帶動更多企業 Treasury 資金配置,這會給 ETH 製造龐大的華爾街場外資金動能;
2)目前 ETH 和 SOL 的穩定幣規模差異還狠懸殊,數據是 137 B VS 11B,大家一定很疑惑,又是美國藍血基因,又是鏈上納斯達克,為啥這一波美國穩定幣政策引導的穩定幣大戰,Solana 掉隊如此嚴重?
其實也不怪 SOL,背後是鏈 infra 去中心化、安全性以及流動性深度的終極考驗,以太坊上 USDC(655 億)、USDT、DAI 三駕馬車牢牢把控著穩定幣市場,這背後是 Circle、Tether 等機構對以太坊網絡的絕對信任;
雖說 SOL 背後的 VC 都是美國資方,但華爾街這幫新機構買盤可能顧及不了那麼多,只看現實的數據差就可以了,這可能是 SOL 短期無法抹平的數據規模差異。但,客觀來說,SOL 的穩定幣增速其實不錯,包括 PayPal 的 PYUSD 也選擇在 Solana 重點發力,都給了不少想像空間,只是還需要耐心;
3)曾幾何時,SOL 的鏈上經濟活力爆表,PumpFun 日交易量破千萬美元,各種 MEME 土狗滿天飛,但問題是,現在還處於大機構的籌碼積累期,大資金更看重的是合規通道、流動性深度、安全記錄這些「硬指標」,而不是鏈上有多少個 MEME 在 PVP。
換句話說,現在還不是散戶主導的 PVP 敘事周期,反過來想,這種鏈上活力恰恰是 SOL 的差異化優勢。等市場周期轉換,散戶 FOMO 重新點燃時,SOL 積累的這些創新玩法和用戶基礎,可能會成為下一波行情的引爆點;
4)作為 SBF「親兒子」的 SOL,或許還在受 FTX 崩塌效應的影響,從 260 美元跌到 8 美元的慘狀還歷歷在目。雖然技術上 SOL 已經完全獨立,但在機構記憶裡,這種關聯性就像個疤痕,時不時會被拿出來說事。
況且,能從 8 美元漲回 175 美元,本身就證明了 SOL 生態的韌性。那些在最黑暗時刻還在 Build 的團隊,成了 SOL 重新構築公鏈長城的新力量,這種浴火重生的經歷,長期看可能是好事;
5)ETH 走的是 layer2 分層路線,雖然被詬病流動性割裂,但這恰恰符合機構的風險隔離需求。而 SOL 的一體化高性能路線,所有東西都在一條鏈上跑,這種「All in One」的模式在機構眼裡反而是風險集中。
所以你看,Robinhood 牽手 Arbitrum 就是個例證,用機構視角來看,ETH 的高 Gas 缺點反而成了篩選高價值交易的優點,雖然和 Mass Adoption 背道而馳,但現在主旋律談的又不是 Mass Adoption,是誰能得華爾街機構寵的遊戲;
6)最後要補充一點,就是時間共識累積差異了,ETH 有 9 年歷史,SOL 才 4 年,雖然 Jupiter、Jito 這些原生項目已經展現出世界級的產品力,但和 Uniswap、AAVE、MakerDAO 等這些 DeFi 巨擘比,其背後存在的市場教育、生态沉澱和信任積累的差距。
總之,E 衛兵的苦痛記憶沒准在一場市場新 Fomo 下會滋生一波 S 衛兵出來,但這場較量在我看來本質就是機構敘事和散戶敘事階段性的錯配,無它。畢竟,ETH 也不是一天建成的,而 SOL 的成長速度,其實已經相當驚人了。
122.86K
都喊著牛來了,但可否知道這一波尋找市場Alpha和Beta的方法論完全不一樣了,談幾點觀察:
1)OnChain+OffChain TradiFi成主線大敘事:
穩定幣基礎設施化:穩定幣成連接傳統金融與DeFi基礎設施的“血液”,鎖定穩定幣的跨鏈流動,APY Yield差異以及新型創新拓展;
BTC/ETH 微策略“幣股”效應:上市公司將加密資產納入資產負債表成為趨勢,尋找具備“準儲備資產”的潛力優質標的成為關鍵;
To 華爾街創新賽道崛起:專為機構設計的DeFi協議、合規收益產品、鏈上資管工具將獲得鉅額資金青睞。原來的“Code is Law”成了全新的 “Compliance is King”;
2)Crypto純原生敘事去偽存真加速:
以太坊生態迎來一波復興潮: $ETH 價格突破會重燃以太坊生態的技術敘事的創新潮,取代過去的 Rollup-Centric大戰略,全新ZK-Centric會成為主旋律;
高性能Layer1實力比拼:不再是TPS競賽,而要看誰能吸引真實的經濟活動,核心指標包括:穩定幣TVL佔比、原生APY收益率、機構合作深度等等;
山寨幣最後的黃昏:普遍性的大山寨季存在資金量動能不足的根本難題,局部山寨幣會出現“死貓跳”行情,這類標的特徵:籌碼集中度、社區活躍度、能否搭上AI/RWA等新概念;
3)MEME幣從投機工具升級為市場標配:
資金效率:傳統山寨幣市值虛高、流動性枯竭,MEME幣以其公平發射、高換手率成為資金新寵,將搶佔大部分瀕死山寨幣市場份額;
注意力經濟主導:KOL影響力、社區文化建設、熱點FOMO模式仍是核心競爭力,流動性分配依然遵循注意力法則;
公鏈實力新指標:MEME幣市場活躍度會是衡量公鏈綜合實力的重要標準;
21.89K
屬於區塊鏈世界的Swift系統要來了?@mindnetwork 基於於FHE技術推出的鏈上加密消息協議,嘗試為傳統金融資產上鏈構建一套類似傳統銀行間報文系統的基礎設施。具體怎麼回事呢?
1)Mind Network是FHE(Fully Homomorphic Encryption)的垂類技術供應商,由於這項技術主要解決隱私性和加密相關的問題,故而在ZK、DePIN、AI以及當下火熱的RWA賽道都能靈活發揮價值。
ZK技術棧中,FHE可以作為零知識證明的重要補充,提供不同維度的隱私保護。在DePIN網絡中,FHE能保護分佈式設備的敏感數據,同時允許網絡進行必要的協作計算。在AI Agent領域,FHE可以讓AI在不洩露用戶隱私數據的前提下進行訓練和推理,這對金融、醫療等敏感領域的AI應用至關重要。
在RWA方向,FHE則可以解決傳統金融資產上鏈時的合規性痛點。如何理解呢?
區塊鏈天然缺失“語義層”,僅有地址和金額的交易記錄無法滿足金融業務對交易目的、合同背景、身份證明等信息的需求。Mind Network的鏈上加密消息協議能給每筆區塊鏈交易配上“加密備註欄”,能安全傳輸房產證明、信用證、語音授權等敏感信息,既保護隱私又滿足監管審計要求。
2)從技術視角看,這套技術解決方案能把Web3錢包從單純的轉賬工具升級為加密通信身份。傳統鏈上要麼依賴中心化機構處理合規信息,要麼信息完全公開透明,都不是理想方案。
而有了FHE加持的隱私合規解決方案,具體應用場景很直觀:比如穩定幣跨境支付中,可以在轉賬的同時加密傳輸交易用途和KYC信息,監管機構能在不獲取明文的情況下驗證合規性;又比如房地產代幣化交易,可以將評估報告、買賣合同等敏感文件加密綁定到鏈上交易中,既實現了資產流通又保護了商業隱私。
Mind Network的FHE Bridge累積了65萬活躍地址和320萬筆加密交易,證明了技術方案的可行性。當然,這個數據只是瞄準並驗證了一個足夠剛性的市場需求,至於市場前景和空間有多大,恐怕還很難看清楚。
3)不少純原生區塊鏈Builder一直在焦慮build方向和賽道的問題,無論to vitalik 還是to vc,或者只是單純的Fomo 熱點敘事,我覺得接下來都得讓位於to 華爾街這一點,利用美國政府的Crypto監管友好,儘可能的提供為華爾街進入加密領域所需的基礎infra乃至純工具服務,all good。
像貝萊德、摩根大通這些傳統金融巨頭都在積極佈局資產代幣化時,他們最關心的不是區塊鏈能不能轉賬,而是能不能滿足KYC、AML等監管標準。這正是Mind Network要切中RWA賽道提前佈局的真實原因。假設RWA市場預計2034年可能達到30萬億美元規模,這個體量下對合規基礎設施的需求會怎樣?
當然,關於分食RWA藍海市場蛋糕的預期,大家都可以有。但其實更關鍵是得找到合適的生態卡位,就像雲計算時代有AWS提供計算、Cloudflare提供CDN一樣,區塊鏈基礎設施也正在走向垂直細分,一些垂直硬核技術服務方向也勢必得找到自己的專業化分工才行。
顯然,Mind Network專注FHE技術棧,為不同賽道提供"加密即服務"能力。所以,在ZK、AI、RWA賽道看到它的身影並不奇怪。
當然,技術供應商的價值最終還是要看下游應用的爆發程度。無論是RWA的30萬億美元預期,還是AI Agent的自主化進程,都還需要時間驗證。

Mind Network8月7日 16:50
✉️ 加密消息鏈上傳送
現實世界資產(#RWAs),如不動產、穩定幣結算和跨境金融,不僅僅需要價值轉移。
這些用例依賴於承載目的、身份和合規性及隱私的審計記錄的交易。
#SWIFT 標準化消息以確保合規性和結算。區塊鏈仍然缺乏一種原生的加密方式來表達這些屬性。
加密消息鏈上傳送是一種新協議,允許錢包在任何鏈上交易旁邊直接發送加密、結構化和可驗證的消息。
✅ 自動結構化文本以提高語義清晰度
✅ 基於錢包的密鑰生成以實現端到端加密
✅ 與交易相關聯的加密消息,具有審計記錄和訪問控制
加密消息鏈上傳送將完全同態加密(#FHE)與傳統加密技術結合,將敏感數據轉換為安全的鏈上有效載荷,僅供預定接收者訪問。
了解更多:

6.83K
最近在YouTube頻道“The Rollup”上, @TrustWallet CEO Eowyn Chen 與 @OpenledgerHQ 核心貢獻者 Ram Kumar 的圍繞雙方的深度合作,展開了一番討論。在此,提取若干有價值的觀點,分享下:
1)給“胖錢包”理論潑了點冷水
訪談中 Andy 提到了業內流行的"胖錢包"理論——擁有用戶入駐渠道的錢包可以垂直整合各種服務?但 Eowyn Chen 的回應很有意思,她直言 C 端零售用戶業務實際上非常困難,涉及大量客戶支持、更高安全責任,以及頻繁的產品路線調整等等。
很多人看到 Trust Wallet 的 2 億下載量就覺得做錢包是門好生意,但 CEO 自己都在強調服務零售用戶的痛苦。這說明錢包的“胖”不是想胖就能胖的,用戶關係雖然有價值,但維護成本也不低。這個觀點還算實在,道明了現在不少錢包服務商的真實處境。
更關鍵的是,她提到並非所有價值都集中在前端,價值鏈各部分都應該公平發展。這個觀點算是給“胖錢包”理論潑了點冷水,也解釋了為什麼 Trust Wallet 願意和 OpenLedger 這樣的基礎設施項目合作。
2)專業化 AI 的拐點到了嗎?
Ram Kumar 對 AI 發展路徑的判斷值得關注。他認為 AI 正從通用性向專業化演進,類似 Google 從通用搜索衍生出 LinkedIn、YouTube 等垂直應用。ChatGPT 這類通用 AI 將如同操作系統,而未來會有更多專門用於特定用例的“專業化模型”。
這和我之前分析 web3AI 行業趨勢演變的邏輯也一致。Trust Wallet 在嘗試 AI 功能時發現通用模型解決不了加密領域的具體問題,正好印證了這個趨勢。而恰恰,專業化 AI 模型的構建需要垂直領域的高質量數據,這正是 OpenLedger 想要解決的問題。
3)數據貢獻的“無償勞動”困局
Ram Kumar 直言 AI 是"建立在無償勞動基礎上的萬億美元產業",這個批判挺尖銳。AI 公司通過抓取互聯網數據訓練模型,數據貢獻者卻分不到一杯羹,這確實是個結構性問題。
OpenLedger 的解決思路是讓數據貢獻者獲得 AI 模型的長期收益分成,而不是一次性賣數據。配合錢包的全球支付能力,理論上可以實現跨境的無摩擦價值分配。
但這裡有個核心問題:數據質量如何保證?Ram 自己也承認,Hugging Face 等平台 90% 的開源貢獻都沒什麼用。如果貢獻的數據本身價值有限,再好的激勵機制也白搭。
以上。
Eowyn Chen 用“持槍權”類比自我托管,強調 AI 功能是可選的,用戶可以在便利性與安全性之間自主選擇。這種產品哲學是對的,但如何“清晰地呈現選項”非常考驗產品設計能力。
Ram 還提到一個有趣判斷:加密錢包是用戶在全球範圍內獲得數據貢獻報酬的唯一途徑。這意味著錢包的角色可能會從單純的資產管理工具,演進為數字身份和價值分配的基礎設施。
Note:想了解更多可以訪問 The Rollup 的 Youtube 頻道系統看看這次訪談。


The Rollup8月5日 08:31
新一集:與 Ram Kumar 和 Eowyn Chen 的新分配時代
在今天的節目中,@ayyyeandy 與 @OpenledgerHQ 的 @Ramkumartweet 和 @TrustWallet 的 @EowynChen 坐下來探討:
>「肥錢包論」與肥協議理論
>Trust Wallet 如何計劃整合 AI
>AI 驅動錢包的安全風險
>OpenLedger 對獎勵數據貢獻者的願景
>為什麼通用 AI 永遠無法適用於 DeFi
完整集數鏈接如下。
時間戳:
00:00 介紹
00:20 Ram 和 Eowyn 的加密與 AI 背景
02:50 Trust Wallet 的用戶價值
07:43 Starknet 廣告
08:10 OpenLedger 對 AI 演變的看法
11:03 錢包介面的未來
17:12 自我保管 AI 監管
21:22 Mantle 廣告
22:02 訓練更好的 AI 模型
28:19 OpenLedger 和 Trust Wallet 的下一步
5.1K
細細想了下 @VitalikButerin 最新關於L2快速體現的表態,挺有意思的。簡單而言:他認為實現1小時內快速提現比達到Stage 2更重要,這個優先級調整背後的邏輯值得深入思考:
1)一週提現等待期在實際應用中確實成了大問題,不僅用戶體驗差,更關鍵的是推高了跨鏈成本。
比如ERC-7683這類intent-based橋接方案,流動性提供方要承擔一週的資金佔用成本,這直接擡高了跨鏈費用。結果就是用戶被迫選擇信任假設更弱的多籤方案,這恰恰違背了L2的初衷。
所以Vitalik提出了2-of-3混合證明系統(ZK+OP+TEE),其中ZK和TEE能提供即時性,TEE和OP又都有足夠的生產驗證。理論上任意兩個系統都能保證安全性,這樣一來就避免了單純等待ZK技術完全成熟的時間成本。
2)還有一點,Vitalik的新表態讓人感覺他開始務實了?從之前滿嘴“去中心化聖戰”、“抗審查”的理想主義青年,變成了現在直接給硬指標的務實派:1小時提現,12秒終局,一切都變得簡單粗暴。
之前大家都在卷Stage 2的去中心化程度,現在V神直接說快速提現更重要,這相當於給整個L2賽道重新排了優先級。這其實是在為“Rollup-Centric”大戰略的終極形態鋪路,讓以太坊L1真正成為一個統一的結算層和流動性中心。一旦實現了快速提現+跨鏈聚合,其他公鏈想要挑戰以太坊生態的難度就又上了一個臺階。
小V之所以這樣,也是市場已經用腳投票告訴他的結果,市場不care去中心化的技術口號,更注重的體驗和效益,這種從“理想驅動”到“結果導向”的轉變,反映了整個以太坊生態正在向更加商業化和競爭導向的方向演進。
3)問題來了,要達到現實體驗和infra構建的長期目標,接下來的以太坊生態大概率會卷ZK技術的成熟度和成本控制。
從當前情況看,ZK技術雖然在快速進步,但成本依然是個現實約束。500k+ gas的ZK proof意味著短期內只能做到每小時級別的提交頻率,要想實現12秒的終極目標,還得依賴聚合技術的突破。
這裡面的邏輯很清楚:單個Rollup頻繁提交proof成本太高,但如果N個Rollup的proof能聚合成一個,平攤到每個slot(12s)就變得經濟可行了。
這也給L2競爭格局提出了新的技術路線,那些能率先在ZK proof優化上取得突破的L2項目也許能找到立足之地,而還在死磕Optimism樂觀證明的玩伴,大概率要迷失方向了。

vitalik.eth8月7日 00:29
看到這麼多主要的 L2 現在進入第一階段,真是令人驚嘆。
在我看來,我們應該追求的下一個目標是快速(<1 小時)提款時間,這需要有效性(即 ZK)證明系統的支持。
我認為這比第二階段更重要。
快速的提款時間很重要,因為等待一周才能提款對人們來說實在是太長了,即使是基於意圖的橋接(例如 ERC-7683),如果流動性提供者必須等待一周,資本成本也會變得過高。這會產生巨大的誘因,讓人們選擇使用不接受的信任假設的解決方案(例如多重簽名/MPC),這會破壞擁有 L2 而不是完全獨立的 L1 的整個意義。
如果我們能將本地提款時間縮短到短期內少於 1 小時,中期內 12 秒,那麼我們可以進一步鞏固以太坊 L1 作為發行資產的默認場所,以及以太坊生態系統的經濟中心。
為了做到這一點,我們需要擺脫樂觀證明系統,因為這些系統本質上需要等待多天才能提款。
歷史上,ZK 證明技術一直不成熟且昂貴,這使得樂觀證明成為明智且安全的選擇。但最近,這一情況正在迅速改變。是一個跟蹤 ZK-EVM 證明進展的絕佳地方,這些證明正在迅速改善。ZK 證明的正式驗證也在進步。
今年早些時候,我提出了一種 2-of-3 ZK + OP + TEE 證明系統策略,這在安全性、速度和成熟度之間取得了平衡:
* 2 of 3 系統(ZK,OP)是無信任的,因此沒有單一行為者(包括 TEE 製造商或側信道攻擊者)可以通過違反信任假設來破壞證明系統
* 2 of 3 系統(ZK,TEE)是即時的,因此在正常情況下可以快速提款
* 2 of 3 系統(TEE,OP)在各種情境中已經投入生產多年
這是一種方法;也許人們會選擇 ZK + ZK + OP 平局,或 ZK + ZK + 安全委員會平局。我在這裡沒有強烈的意見,我關心的是根本目標,即在正常情況下快速且安全。
有了這樣的證明系統,快速結算的唯一瓶頸變成了在鏈上提交證明的燃料成本。這就是為什麼我說短期內每小時一次:如果你試圖更頻繁地提交 500k+ 燃料的 ZK 證明(或 5m 燃料的 STARK),會增加高額的額外成本。
在更長期內,我們可以通過聚合來解決這個問題:來自 N 個 rollup 的 N 個證明(加上來自隱私協議用戶的交易)可以被一個證明所取代,該證明證明了 N 個證明的有效性。這變得經濟實惠,可以每個槽提交一次,實現最終目標:通過 L1 進行近乎即時的本地跨 L2 資產移動。
讓我們一起努力實現這一目標。
14.07K
熱門
排行
收藏
鏈上熱點
X 熱門榜
近期融資
最受認可