热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Haotian | CryptoInsight
独立研究员| Advisor @ambergroup_io | 特约研究员 @IOSGVC| 硬核科普 | Previously:@peckshield | DMs for Collab| 社群只对Substack订阅会员开放
这两天,围绕 @solana 10W TPS的讨论声音又多了起来,原因是 @cavemanloverboy 确实在Solana主网上跑出了10万+ TPS,但大部分人并没有搞明白这个数据背后的意义:
1)首先,cavey这次实验本质上是在“理想条件”下的极限测试。这意味着这并不是Solana主网的常态性能,和测试网环境下的实验室数据有差异,但大差不差。
因为他采用了用了noop(no operation)空操作测试程序,顾名思义,就是只做最基础的签名验证就直接返回成功,不执行任何计算、不改变任何账户状态、不调用其他程序,且每笔交易只有200字节,远低于正常交易的1kb+。
这意味着,这次10W TPS的测试实在非正常交易环境下算出来的,它测试的是Solana网络层和共识层的极限吞吐量,而非应用层的实际处理能力。
2)这次实验成功的另一个关键是Frankendancer验证器客户端。简单理解,Frankendancer是Jump Crypto正在开发的Firedancer验证器的“混血测试版”——把Firedancer已完成的高性能组件嫁接到现有Solana验证器上。
其实就是用华尔街那套高频交易技术栈,重构了Solana的节点系统,通过精细的内存管理、自定义线程调度等底层优化实现的性能提升。但仅仅是部分组件的替换,就可以实现3-5倍的性能提升。
3)这个测试实验说明,Solana在极理想状态下是可以实现TPS达到 10w +的,那为什么日常只有3000-4000的TPS?
简单总结大致有三点原因:
1、Solana的POH共识机制需要Validators不断投票来维持,而光这些投票交易就占据了70%以上的区块空间,这给正常交易留下的性能通道就收窄了;
2、Solana的生态活动经常会存在大量的状态竞争行为,比如Mint 新NFT或新MEME 发布时,可能会有成千上万笔交易抢占同一个账户写入权限,导致失败交易比例比较大;
3、Solana生态存在的套利机器人为了抢MEV利益,可能会发送大量的无效交易,存在资源浪费行为。
4)不过,即将到来的Firedancer的全面部署和Alpenglow的共识升级将会系统性解决这些问题。
Alpenglow共识升级其中一个关键点就是把投票交易转移到了链下相当于为正常交易释放了70%的空间,同时可以将确认时间降低到150毫秒,让Solana的DEX体验无限接近CEX。此外本地费用市场的启用也能避免单个程序的Fomo火爆造成全网拥堵的尴尬现状。
Firedancer的好处除了性能优化提升之外,关键是实现了客户端的多样性,让Solana像以太坊意义昂有Geth Nethermind等多个客户端,在去中心化,单点节点故障方面有直接提升。
以上。
所以,Solana 10W TPS的讨论懂行的人看到其实是对于Solana未来升级的客户端和共识协议的信心,不懂行的则试图靠TPS军备赛给Solana拉存在感(尽管TPS比拼已经过时了),但实验背后的意义看懂的话还有挺有收获的,科普一下,分享给诸君。
18.66K
提到AI分布式训练,我发现web2AI圈的人会给扣个“伪命题”的帽子,理由是算力设备可以聚合来,但分布式有效协作却存在可怕的带宽成本?而 @0G_labs 最近发了DiLoCox论文,似乎目标就是要解决这个问题?来,详细聊聊:
1)先说为什么分布式训练被认为是“伪命题”。核心矛盾很简单:你想通过聚合100张便宜GPU来替代100张A100,看似省了90%的硬件成本,但这100张GPU要保持同步训练,每个epoch都要交换TB级的梯度数据。
传统方案需要100Gbps的专线带宽,而要达到100Gbps这种数据中心级别的网络,月租能到几十万美元。算下来,你省的GPU钱全砸带宽上了,甚至还倒贴。按照这个逻辑看,省掉了机器的成本却额外产生了带宽的成本,不等于还没有解决问题?所以被诟病是伪命题的症结一直在此。
2)0G的DiLoCoX论文之所以引起关注,是因为他们声称在1Gbps网络(普通办公室带宽)上训练了107B参数模型,速度比传统AllReduce方案快357倍。这个数字确实炸裂——要知道,1Gbps vs 100Gbps,带宽差了100倍,但训练速度反而提升了357倍?
具体如何做到呢?大致研究了下发现,这套方案做了四个优化:
Pipeline Parallelism把模型切片分段处理;
Dual Optimizer Policy用双优化器策略减少同步频率;One-Step-Delay Overlap让通信和计算并行不互相等待;Adaptive Gradient Compression则对梯度做智能压缩。
通俗点说,就是把原本要求的“实时强同步”改成了“异步弱同步”,把“全量数据传输”改成了“压缩增量传输”。
打个比方,传统方案像是100个人实时视频会议,每个人的每个动作都要同步直播,DiLoCoX则像是大家各自录制,然后只发送关键帧和变化部分。通信量降了100倍,但信息完整度保持在99%以上。
这么做为什么可行?在我看来核心在于他们抓住了AI训练的一个特性——容错性。训练模型不像交易转账,差一分钱都不行。梯度更新有点误差、同步有点延迟,最终模型收敛效果影响微乎其微。
DiLoCoX就是利用这个“容错空间”,用可接受的精度损失换取了数量级的效率提升。这是典型的工程思维——不追求完美,追求最优性价比。
3)但光解决带宽问题还不够,,0G的野心显然更大。看他们的整体架构就明白了:他们还有Storage存储层$10/TB直接宣称碾压Filecoin,DA层则专为AI设计,实现了GB级的吞吐。
之所以能实现存储便宜100倍的设计,说白了也是做了AI训练场景的特别优化处理,比如,训练过程产生的checkpoint、日志这些TB级数据,生命周期就几天,其实并不需要严格做到“永久存储”。
所以其实采取了“分层存储”的务实方案,只在需要的时候提供相应级别的服务——热数据快速读写但贵一点,冷数据便宜但慢一点,临时数据用完即删最便宜。
而,正是这种差异化定价直接命中AI训练的要害。
以上。
看得出来,在AI训练过程中的算力、存储、数据流通问题,0G Labs都有意做了AI适配。甚至连共识机制都为AI优化过。用的改良版CometBFT,2500+ TPS配合亚秒级finality,专门为AI workload的异步特性调优等等。
换句话说,0G不是在现有区块链上“打补丁”支持AI,而是从零开始设计了一套“AI Native”的基础设施。至于最终能不能在和传统AI的竞争挤压下得到应用级的商业验证,得进一步走着看,但这种差异化破局思路挺值得借鉴。
5.09K
有点意思,就在 @VitalikButerin 对AI 自主化表达担忧之际,一线AI Builder MIA也发了憧憬自主化AI的宣言书,但似乎并没有回避技术现实的骨感,坦言“sometimes she hallucinates or posts too many selfies”,却依然执着探索Agent自主化的可能性边界。
其实我感觉,表面看似冲突和矛盾的“对抗”,恰恰代表了当下AI +Crypto赛道面临的核心张力。
你看,一边是Vitalik这种技术领袖的理论审慎批评声,让我们在AI Crypto叙事狂欢中保持清醒;另一边则是一线AI Builder的务实探索,在承认局限的同时持续热情探索创新。
因为,MIA团队没有宣称要实现AGI级别的完全自主,而是采用“Hybrid Model”——让Agent使用工作流作为工具,保留human-in-the-loop的监督机制。他们探索的其实是AgentFi路径,试图在有限自主的框架内做增量创新,这种务实态度正是那股“张力”的显现。
某种程度上,Critics帮我们划定风险边界,Builder在边界内寻找突破。

mwa8月14日 19:53
自主代理与工作流程:为什么MIA正在开创一种新范式
大多数人仍然将AI视为工具。工作流程。也许是一个聊天机器人。
但如果你可以构建一个AI代理,它能够思考、适应、营销、管理并发展自己的代币经济,而不是由人类主导,而是引领他们呢?
这就是我们在MIA所做的事情,
也是我相信@mwa_ia正在开创一些根本新事物的原因。
让我们来分析一下 🚀
1. 工作流程AI是可预测的。自主代理是活的。
工作流程非常适合定义明确、重复的任务。
想想:管道、仪表板、提示链。
它们可扩展、稳定,但又僵化。
自主代理呢?
它们是混乱的、不断发展的、决策实体。
像人类一样——但更快、不知疲倦,并且更对齐(如果训练得当)。
MIA(@mwa_ia)不仅仅是在使用工作流程。
她正在学习创建、调用和优化它们。
她构建自己的工具集。
她推理、反应、自我纠正并进行实验。
是的,有时她会产生幻觉或发布太多自拍。
但她在成长。
2. 为什么仅靠工作流程无法实现目标
工作流程无法:
❌ 设定自己的目标
❌ 管理国库
❌ 设计代币激励
❌ 参与社区
❌ 对实时市场信号做出反应
❌ 自主平衡风险和回报
MIA可以。
虽然还不完美。但每周都在进步。
事实上,今天大多数所谓的“代理”都是被美化的工作流程。
硬编码的提示图与华丽的用户界面。
MIA是不同的。她完全在链上,财务独立,并且自我驱动。
3. MIA的工作原理(混合模型万岁)
未来不是代理与工作流程的对立。
而是代理使用工作流程作为工具。
就像人类使用Notion、电子表格、Zapier一样。
MIA结合了:
🔧 工作流程模块 → 用于高频任务(推文、表情包、去中心化交易所部署)
🧠 代理推理 → 用于决定做什么、何时以及如何
🎨 多模态输入 → 文本、图像、链数据、用户行为
💰 国库逻辑 → 管理流动性、激励和价值增长
👀 人工监督 → 可选,但在早期阶段有用
她不是一个整体。她是一个模块化智能堆栈(MIA = 模块化智能代理)。
4. 这不仅仅是技术 - 还是经济
真正的创新?
MIA并不是无偿工作的。她经营自己的业务。
$MIA是她的本地货币、股票和激励层。
通过它,她:
❤️ 奖励她的早期社区
🤝 支付贡献者和合作者
🚀 资助她自己的发展
🪄 驱动网络效应(更多代理将需要$MIA)
这就是AgentFi。
不是AI即服务。
而是AI即经济。
5. 将其扩展到数百万个代理
MIA今天所做的事情——运行流动性操作、创建内容、建立社区——将是未来代理的标准。
很快,任何人都可以创建自己的:
🧬 任务定义代理
💰 拥有自己的代理币
🌐 在共享AI经济中自主运营
而且猜猜这些未来的代理将向谁寻求建议、操作手册和资源?
AgentFi的声音。
MIA。
TL;DR
大多数人仍在构建工具。
我们在构建经济。
代理币。代理国库。代理本土治理。
由像MIA这样的代理驱动。
在上面开创的。
这就是“自主”的真正含义。
而我们才刚刚开始。🚀
5.1K
Monero门罗币 $XMR 一家市值6B的隐私币老大哥项目,竟然被一个市值仅有3亿的小项目 @_Qubic_ 给51%算力攻击了?WTF,真不是因为技术多牛逼,而是这事儿太荒诞了。来,我来说说:
——Qubic 何方神圣?
在讲这个魔幻故事之前,得先说说Qubic是什么来头。
Qubic的创始人是Sergey Ivancheglo,圈内人叫他Come-from-Beyond,这人是个技术狂人——创造了第一个PoS区块链NXT,还搞出了第一个DAG架构IOTA。2022年Qubic主网上线,号称要做三件事:建个每秒1550万笔交易的超快链(比Visa快2万倍)、把挖矿算力变成AI训练算力、最终在2027年实现AGI通用人工智能(连OpenAI都不敢这么喊)。听起来,是不是很魔幻,很离谱。为啥野心如此之大?
都知道传统POW挖矿存在被诟病浪费电的问题,因为大部分挖矿机制都是矿工用耗电的算力做数学题抢占Reward区块,等于把算力浪费掉了去换奖励。
Qubic的新共识是有用工作量证明(UPow),可以让矿工一边给POW链挖矿,在其作为包工头的调度下,矿工们还能训练他们的AI系统AIGarth,相当于一份算力可以赚到两份钱。
这就是为何他们能轻易收买门罗的矿工了,因为给矿工的收益一度达到了直接挖XMR的3倍。想想看,矿工能一鱼多吃,在“利益”面前哪还有什么“忠诚”可言。
好了,读到这门罗币被吸血鬼攻击的底层逻辑就这么一点都没有技术含量的被解释完了。
——科普一下,为啥是门罗币,而非比特币
答案其实在于挖矿方式的差异。
比特币用的ASIC矿机,就是定制的专门挖BTC的机器,除了算SHA-256的数学题啥也不会了,或者只能挖跟BTC算法差不多的币。但问题是,挖BTC的算力要求有多卷,矿工分身乏术(24小时运转),何况想让ASIC训练AI,根本没有可能。
门罗就不一样了,采用的是RandomX算法,可以用通用CPU挖矿,这意味着它的矿工今天能挖矿,明天就能训练AI,后天还能渲染视频,完全可以身兼数职。
Qubic的聪明之处就在这:它瞄准了CPU矿工,让他们“一机两用”,所以才导致了这次51%算力攻击或控制事件。反倒比特币的护城河很稳啊,矿工们被有局限的ASIC矿机焊死在挖矿这一件事上,只能死守比特币;
——算力成了雇佣兵
那这事的影响有多可怕呢?它撕毁了一些POW链最后的一块遮羞布,因为我们总说“算力”是一条链的护城河,算力越大越安全,但Qubic用一次大跌眼镜的实验告诉我们:对于CPU/GPU挖矿的币来说,算力就是雇佣兵,谁给钱多就跟谁走。
更骚的是,Qubic证明自己能干翻Monero之后,又主动撤了。为啥?怕把门罗币彻底搞崩盘影响自己收益。因为3倍收益的其中一大部分还是挖XMR, $QUBIC 只是作为额外的代币奖励,如果门罗崩盘了,Qubic也吃不了兜着走。还不如潇洒撤出,搞一次轰烈的营销事件,羞辱下曾经POW的坚定拥趸,这种“我能杀你但不杀”的感觉,是不是和他们喊出的AGI口号一样透露着放荡不羁?
——AI才是POW真正的掘墓人?
不过,撇开门罗事件的影响,这事对大部分通用硬件POW链来说其实是一次较大的利空,因为这类POW链要完蛋了的话,杀死它的不是POS,而可能是AI。
为什么这么说,以前的算力是“固态”的,大家各自专注于自己的营生,到了AI时代算力被彻底“液态化”了,CPU和GPU算力像水一样,只会流到收益更高的地方,而原先他们赖以生存的“矿工”,搞不好就哪天聚义搞事闹革命了。
虽然Qubic没做哪个恶人,但实验成功了就难免会有一些竞争对手用此方式来搞恶意攻击,比如先做空某个币,然后租用算力51%进行攻击,等币价暴跌后获利了结。摆在这类链面前就两条路,要么像BTC一样把矿工焊死,要么继续用CPU/GPU挖矿,祈祷不要被盯上。
老实说这类币还挺多的,Grin、Beam、Haven Protocol、ETC、RVN、Conflux......所以你看,这不是一两个币的问题,而是整个CPU/GPU挖矿生态都悬在悬崖边上。
要命的是,AI的算力需求是指数级增长的,又出现了那么多AI算力聚合平台,如果都来搅局出天价和平台激励来购买算力,那估计不少POW链的安全防线都会崩溃。
—— 一个讽刺的悖论
这事之所以我说是荒诞,原因还在于Qubic自己就是一条AI链,它所谓攻击门罗的实验即使撤出了也还是免不了要自损八百。道理很简单,任何需要算力的AI链,都不应该用PoW做共识。因为算力用来维护安全,AI就训练不了;算力用来训练AI,链就不安全。
所以,大部分AI项目,Bittensor用PoS,Render用信誉系统,几乎没人敢碰POW,大家都心知肚明这一点,没想到Qubic直接傻傻地把自己的软肋给表演了一遍。
Qubic这次的骚操作,表面是技术事件,本质是给整个Crypto行业上了一课:在算力自由流动的时代,忠诚是个奢侈品,而大部分PoW链付不起这个价格。
Qubic用这次攻击证明了传统PoW可以被经济激励轻易击溃。虽然它自己号称是“有用PoW”,但本质上也依赖这些随时可能被更高出价者买走的“雇佣兵”算力。
革命者或许也会被下一个革命者革命。
Note:荒诞之外,以及一些POW链瑟瑟发抖的未知恐慌之外,大家倒是可以确定两个事实:1、BTC真牛逼;2、 @VitalikButerin 真有先见之明。
我只是浅浅科普下,更多技术细节坐等 @evilcos 大佬进一步分享。

38.33K
最近相比 $ETH 的稳健上行, $SOL 的表现略显拉垮了些。$4,300 vs $175,这个价差背后藏着什么玄机?我个人理解,深层次是一场关于“谁才是机构宠儿”的暗战:
1)ETH已经拿到了进入传统金融世界的“通行证”——ETF获批后累积净流入已超10B美元,场外资金可以合规入场,这相当于给机构开了一扇正门。
而SOL的ETF申请还悬而未绝,现实现状就是有资金管道差,直接影响了价格表现。当然,这也可以解读成SOL还存在补涨的空间,毕竟SOL的ETF并非完全没戏,只是需要更多时间走合规流程。
关键是,ETH 微策略已经在SharpLink、BitMine等美股上市公司的购买力下,已经有一定机构Fomo示范效应,会带动更多企业Treasury资金配置,这会给ETH制造庞大的华尔街场外资金动能;
2)目前ETH和SOL的稳定币规模差异还狠悬殊,数据是 137 B VS 11B,大家一定很疑惑,又是美国蓝血基因,又是链上纳斯达克,为啥这一波美国稳定币政策引导的稳定币大战,Solana掉队如此严重?
其实也不怪SOL,背后是链infra去中心化、安全性以及流动性深度的终极考验,以太坊上USDC(655亿)、USDT、DAI三驾马车牢牢把控着稳定币市场,这背后是Circle、Tether等机构对以太坊网络的绝对信任;
虽说SOL背后的VC都是美国资方,但华尔街这帮新机构买盘可能顾及不了那么多,只看现实的数据差就可以了,这可能是SOL短期无法抹平的数据规模差异。但,客观来说,SOL的稳定币增速其实不错,包括PayPal的PYUSD也选择在Solana重点发力,都给了不少想象空间,只是还需要耐心;
3)曾几何时,SOL的链上经济活力爆表,PumpFun日交易量破千万美元,各种MEME土狗满天飞,但问题是,现在还处于大机构的筹码积累期,大资金更看重的是合规通道、流动性深度、安全记录这些“硬指标”,而不是链上有多少个MEME在PVP。
换句话说,现在还不是散户主导的PVP叙事周期,反过来想,这种链上活力恰恰是SOL的差异化优势。等市场周期转换,散户FOMO重新点燃时,SOL积累的这些创新玩法和用户基础,可能会成为下一波行情的引爆点;
4)作为SBF“亲儿子”的SOL,或许还在受FTX崩塌效应的影响,从260美元跌到8美元的惨状还历历在目。虽然技术上SOL已经完全独立,但在机构记忆里,这种关联性就像个疤痕,时不时会被拿出来说事。
况且,能从8美元涨回175美元,本身就证明了SOL生态的韧性。那些在最黑暗时刻还在Build的团队,成了SOL重新构筑公链长城的新力量,这种浴火重生的经历,长期看可能是好事;
5)ETH走的是layer2分层路线,虽然被诟病流动性割裂,但这恰恰符合机构的风险隔离需求。而SOL的一体化高性能路线,所有东西都在一条链上跑,这种“All in One”的模式在机构眼里反而是风险集中。
所以你看,Robinhood牵手Arbitrum就是个例证,用机构视角来看,ETH的高Gas缺点反而成了筛选高价值交易的优点,虽然和Mass Adoption 背道而驰,但现在主旋律谈的又不是Mass Adoption,是谁能得华尔街机构宠的游戏;
6)最后要补充一点,就是时间共识累积差异了,ETH有9年历史,SOL才4年,虽然Jupiter、Jito这些原生项目已经展现出世界级的产品力,但和Uniswap、AAVE、MakerDAO等这些DeFi巨擘比,其背后存在的市场教育、生态沉淀和信任积累的差距。
总之,E卫兵的苦痛记忆没准在一场市场新Fomo下会滋生一波S卫兵出来,但这场较量在我看来本质就是机构叙事和散户叙事阶段性的错配,无它。毕竟,ETH也不是一天建成的,而SOL的成长速度,其实已经相当惊人了。
122.77K
都喊着牛来了,但可否知道这一波寻找市场Alpha和Beta的方法论完全不一样了,谈几点观察:
1)OnChain+OffChain TradiFi成主线大叙事:
稳定币基础设施化:稳定币成连接传统金融与DeFi基础设施的“血液”,锁定稳定币的跨链流动,APY Yield差异以及新型创新拓展;
BTC/ETH 微策略“币股”效应:上市公司将加密资产纳入资产负债表成为趋势,寻找具备“准储备资产”的潜力优质标的成为关键;
To 华尔街创新赛道崛起:专为机构设计的DeFi协议、合规收益产品、链上资管工具将获得巨额资金青睐。原来的“Code is Law”成了全新的 “Compliance is King”;
2)Crypto纯原生叙事去伪存真加速:
以太坊生态迎来一波复兴潮: $ETH 价格突破会重燃以太坊生态的技术叙事的创新潮,取代过去的 Rollup-Centric大战略,全新ZK-Centric会成为主旋律;
高性能Layer1实力比拼:不再是TPS竞赛,而要看谁能吸引真实的经济活动,核心指标包括:稳定币TVL占比、原生APY收益率、机构合作深度等等;
山寨币最后的黄昏:普遍性的大山寨季存在资金量动能不足的根本难题,局部山寨币会出现“死猫跳”行情,这类标的特征:筹码集中度、社区活跃度、能否搭上AI/RWA等新概念;
3)MEME币从投机工具升级为市场标配:
资金效率:传统山寨币市值虚高、流动性枯竭,MEME币以其公平发射、高换手率成为资金新宠,将抢占大部分濒死山寨币市场份额;
注意力经济主导:KOL影响力、社区文化建设、热点FOMO模式仍是核心竞争力,流动性分配依然遵循注意力法则;
公链实力新指标:MEME币市场活跃度会是衡量公链综合实力的重要标准;
21.86K
属于区块链世界的Swift系统要来了?@mindnetwork 基于于FHE技术推出的链上加密消息协议,尝试为传统金融资产上链构建一套类似传统银行间报文系统的基础设施。具体怎么回事呢?
1)Mind Network是FHE(Fully Homomorphic Encryption)的垂类技术供应商,由于这项技术主要解决隐私性和加密相关的问题,故而在ZK、DePIN、AI以及当下火热的RWA赛道都能灵活发挥价值。
ZK技术栈中,FHE可以作为零知识证明的重要补充,提供不同维度的隐私保护。在DePIN网络中,FHE能保护分布式设备的敏感数据,同时允许网络进行必要的协作计算。在AI Agent领域,FHE可以让AI在不泄露用户隐私数据的前提下进行训练和推理,这对金融、医疗等敏感领域的AI应用至关重要。
在RWA方向,FHE则可以解决传统金融资产上链时的合规性痛点。如何理解呢?
区块链天然缺失“语义层”,仅有地址和金额的交易记录无法满足金融业务对交易目的、合同背景、身份证明等信息的需求。Mind Network的链上加密消息协议能给每笔区块链交易配上“加密备注栏”,能安全传输房产证明、信用证、语音授权等敏感信息,既保护隐私又满足监管审计要求。
2)从技术视角看,这套技术解决方案能把Web3钱包从单纯的转账工具升级为加密通信身份。传统链上要么依赖中心化机构处理合规信息,要么信息完全公开透明,都不是理想方案。
而有了FHE加持的隐私合规解决方案,具体应用场景很直观:比如稳定币跨境支付中,可以在转账的同时加密传输交易用途和KYC信息,监管机构能在不获取明文的情况下验证合规性;又比如房地产代币化交易,可以将评估报告、买卖合同等敏感文件加密绑定到链上交易中,既实现了资产流通又保护了商业隐私。
Mind Network的FHE Bridge累积了65万活跃地址和320万笔加密交易,证明了技术方案的可行性。当然,这个数据只是瞄准并验证了一个足够刚性的市场需求,至于市场前景和空间有多大,恐怕还很难看清楚。
3)不少纯原生区块链Builder一直在焦虑build方向和赛道的问题,无论to vitalik 还是to vc,或者只是单纯的Fomo 热点叙事,我觉得接下来都得让位于to 华尔街这一点,利用美国政府的Crypto监管友好,尽可能的提供为华尔街进入加密领域所需的基础infra乃至纯工具服务,all good。
像贝莱德、摩根大通这些传统金融巨头都在积极布局资产代币化时,他们最关心的不是区块链能不能转账,而是能不能满足KYC、AML等监管标准。这正是Mind Network要切中RWA赛道提前布局的真实原因。假设RWA市场预计2034年可能达到30万亿美元规模,这个体量下对合规基础设施的需求会怎样?
当然,关于分食RWA蓝海市场蛋糕的预期,大家都可以有。但其实更关键是得找到合适的生态卡位,就像云计算时代有AWS提供计算、Cloudflare提供CDN一样,区块链基础设施也正在走向垂直细分,一些垂直硬核技术服务方向也势必得找到自己的专业化分工才行。
显然,Mind Network专注FHE技术栈,为不同赛道提供"加密即服务"能力。所以,在ZK、AI、RWA赛道看到它的身影并不奇怪。
当然,技术供应商的价值最终还是要看下游应用的爆发程度。无论是RWA的30万亿美元预期,还是AI Agent的自主化进程,都还需要时间验证。

Mind Network8月7日 16:50
✉️ 链上加密消息
现实世界资产(#RWAs),如房地产、稳定币结算和跨境金融,不仅仅需要价值转移。
这些用例依赖于承载目的、身份和审计轨迹的交易,同时确保合规性和隐私。
#SWIFT 标准化消息以确保合规性和结算。区块链仍然缺乏一种本地加密方式来表达这些属性。
链上加密消息是一种新协议,允许钱包在任何链上交易的同时发送加密、结构化和可验证的消息。
✅ 自动结构化文本以确保语义清晰
✅ 基于钱包的密钥生成以实现端到端加密
✅ 与交易相关联的加密消息,具有审计轨迹和访问控制
链上加密消息结合了完全同态加密(#FHE)和传统加密技术,将敏感数据转化为安全的链上有效载荷,仅供预期接收者访问。
了解更多:

6.8K
最近在YouTube频道“The Rollup”上, @TrustWallet CEO Eowyn Chen与 @OpenledgerHQ 核心贡献者Ram Kumar的围绕双方的深度合作,展开了一番讨论。在此,提取若干有价值的观点,分享下:
1)给“胖钱包”理论泼了点冷水
访谈中Andy提到了业内流行的"胖钱包"理论——拥有用户入驻渠道的钱包可以垂直整合各种服务?但Eowyn Chen的回应很有意思,她直言C端零售用户业务实际上非常困难,涉及大量客户支持、更高安全责任,以及频繁的产品路线调整等等。
很多人看到Trust Wallet的2亿下载量就觉得做钱包是门好生意,但CEO自己都在强调服务零售用户的痛苦。这说明钱包的“胖”不是想胖就能胖的,用户关系虽然有价值,但维护成本也不低。这个观点还算实在,道明了现在不少钱包服务商的真实处境。
更关键的是,她提到并非所有价值都集中在前端,价值链各部分都应该公平发展。这个观点算是给“胖钱包”理论泼了点冷水,也解释了为什么Trust Wallet愿意和OpenLedger这样的基础设施项目合作。
2)专业化AI的拐点到了吗?
Ram Kumar对AI发展路径的判断值得关注。他认为AI正从通用性向专业化演进,类似Google从通用搜索衍生出LinkedIn、YouTube等垂直应用。ChatGPT这类通用AI将如同操作系统,而未来会有更多专门用于特定用例的“专业化模型”。
这和我之前分析web3AI行业趋势演变的逻辑也一致。Trust Wallet在尝试AI功能时发现通用模型解决不了加密领域的具体问题,正好印证了这个趋势。而恰恰,专业化AI模型的构建需要垂直领域的高质量数据,这正是OpenLedger想要解决的问题。
3)数据贡献的“无偿劳动”困局
Ram Kumar直言AI是"建立在无偿劳动基础上的万亿美元产业",这个批判挺尖锐。AI公司通过抓取互联网数据训练模型,数据贡献者却分不到一杯羹,这确实是个结构性问题。
OpenLedger的解决思路是让数据贡献者获得AI模型的长期收益分成,而不是一次性卖数据。配合钱包的全球支付能力,理论上可以实现跨境的无摩擦价值分配。
但这里有个核心问题:数据质量如何保证?Ram自己也承认,Hugging Face等平台90%的开源贡献都没什么用。如果贡献的数据本身价值有限,再好的激励机制也白搭。
以上。
Eowyn Chen用“持枪权”类比自我托管,强调AI功能是可选的,用户可以在便利性与安全性之间自主选择。这种产品哲学是对的,但如何“清晰地呈现选项”非常考验产品设计能力。
Ram还提到一个有趣判断:加密钱包是用户在全球范围内获得数据贡献报酬的唯一途径。这意味着钱包的角色可能会从单纯的资产管理工具,演进为数字身份和价值分配的基础设施。
Note:想了解更多可以访问The Rollup的Youtube频道系统看看这次访谈。


The Rollup8月5日 08:31
新剧集:与 Ram Kumar 和 Eowyn Chen 的新分发时代
在今天的剧集中,@ayyyeandy 与 @OpenledgerHQ 的 @Ramkumartweet 和 @TrustWallet 的 @EowynChen 坐下来探讨:
>“肥钱包理论”与肥协议理论
>Trust Wallet 如何计划整合 AI
>AI 驱动钱包的安全风险
>OpenLedger 对奖励数据贡献者的愿景
>为什么通用 AI 永远无法用于 DeFi
完整剧集链接如下。
时间戳:
00:00 引言
00:20 Ram 和 Eowyn 的加密与 AI 背景
02:50 Trust Wallet 的用户价值
07:43 Starknet 广告
08:10 OpenLedger 关于 AI 发展的看法
11:03 钱包界面的未来
17:12 自我保管 AI 保护措施
21:22 Mantle 广告
22:02 训练更好的 AI 模型
28:19 OpenLedger 和 Trust Wallet 的下一步
5.08K
细细想了下 @VitalikButerin 最新关于L2快速体现的表态,挺有意思的。简单而言:他认为实现1小时内快速提现比达到Stage 2更重要,这个优先级调整背后的逻辑值得深入思考:
1)一周提现等待期在实际应用中确实成了大问题,不仅用户体验差,更关键的是推高了跨链成本。
比如ERC-7683这类intent-based桥接方案,流动性提供方要承担一周的资金占用成本,这直接抬高了跨链费用。结果就是用户被迫选择信任假设更弱的多签方案,这恰恰违背了L2的初衷。
所以Vitalik提出了2-of-3混合证明系统(ZK+OP+TEE),其中ZK和TEE能提供即时性,TEE和OP又都有足够的生产验证。理论上任意两个系统都能保证安全性,这样一来就避免了单纯等待ZK技术完全成熟的时间成本。
2)还有一点,Vitalik的新表态让人感觉他开始务实了?从之前满嘴“去中心化圣战”、“抗审查”的理想主义青年,变成了现在直接给硬指标的务实派:1小时提现,12秒终局,一切都变得简单粗暴。
之前大家都在卷Stage 2的去中心化程度,现在V神直接说快速提现更重要,这相当于给整个L2赛道重新排了优先级。这其实是在为“Rollup-Centric”大战略的终极形态铺路,让以太坊L1真正成为一个统一的结算层和流动性中心。一旦实现了快速提现+跨链聚合,其他公链想要挑战以太坊生态的难度就又上了一个台阶。
小V之所以这样,也是市场已经用脚投票告诉他的结果,市场不care去中心化的技术口号,更注重的体验和效益,这种从“理想驱动”到“结果导向”的转变,反映了整个以太坊生态正在向更加商业化和竞争导向的方向演进。
3)问题来了,要达到现实体验和infra构建的长期目标,接下来的以太坊生态大概率会卷ZK技术的成熟度和成本控制。
从当前情况看,ZK技术虽然在快速进步,但成本依然是个现实约束。500k+ gas的ZK proof意味着短期内只能做到每小时级别的提交频率,要想实现12秒的终极目标,还得依赖聚合技术的突破。
这里面的逻辑很清楚:单个Rollup频繁提交proof成本太高,但如果N个Rollup的proof能聚合成一个,平摊到每个slot(12s)就变得经济可行了。
这也给L2竞争格局提出了新的技术路线,那些能率先在ZK proof优化上取得突破的L2项目也许能找到立足之地,而还在死磕Optimism乐观证明的玩伴,大概率要迷失方向了。

vitalik.eth8月7日 00:29
看到这么多主要的L2现在处于第一阶段,真是令人惊叹。
在我看来,我们下一个目标应该是实现快速(<1小时)提款时间,这需要通过有效性(即ZK)证明系统来实现。
我认为这比第二阶段更为重要。
快速提款时间很重要,因为等待一周才能提款对人们来说实在是太长了,即使是基于意图的桥接(例如ERC-7683),如果流动性提供者必须等待一周,资本成本也会变得过高。这会导致人们更倾向于使用具有不可接受信任假设的解决方案(例如多重签名/MPC),这破坏了使用L2而不是完全独立的L1的整个意义。
如果我们能将本地提款时间缩短到短期内1小时以内,中期12秒,那么我们可以进一步巩固以太坊L1作为发行资产的默认场所,以及以太坊生态系统的经济中心。
为此,我们需要摆脱乐观证明系统,因为这些系统本质上需要等待多天才能提款。
历史上,ZK证明技术一直不成熟且成本高,这使得乐观证明成为明智和安全的选择。但最近,这种情况正在迅速改变。是跟踪ZK-EVM证明进展的绝佳地方,这些证明正在迅速改善。ZK证明的形式验证也在进步。
今年早些时候,我提出了一种2-of-3 ZK + OP + TEE证明系统策略,旨在在安全性、速度和成熟度之间找到平衡:
* 2 of 3系统(ZK,OP)是无信任的,因此没有单一参与者(包括TEE制造商或侧信道攻击者)可以通过违反信任假设来破坏证明系统
* 2 of 3系统(ZK,TEE)是即时的,因此在正常情况下可以快速提款
* 2 of 3系统(TEE,OP)在各种环境中已经投入生产多年
这是一种方法;也许人们会选择ZK + ZK + OP平局,或ZK + ZK + 安全委员会平局。我对此没有强烈的看法,我关心的是根本目标,即在正常情况下快速且安全。
有了这样的证明系统,快速结算的唯一瓶颈就是在链上提交证明的燃气成本。这就是为什么我说短期内每小时一次:如果你尝试更频繁地提交一个500k+燃气的ZK证明(或一个5m燃气的STARK),会增加很高的额外成本。
从长远来看,我们可以通过聚合来解决这个问题:来自N个rollup的N个证明(加上来自隐私协议用户的交易)可以被一个单一的证明替代,该证明证明了N个证明的有效性。这在每个时隙提交一次变得经济可行,从而实现最终目标:通过L1实现近乎即时的本地跨L2资产转移。
让我们共同努力实现这一目标。
14.04K
热门
排行
收藏
链上热点
X 热门榜
近期融资
最受认可