先把结论说清楚
这篇传播稿不是胡扯,但它把一件本来已经很强的工程实验,包装成了更像神话的故事。
截至北京时间 2026 年 3 月 16 日,我能核验到的核心事实是这些。ETH2030 项目真实存在,但传播里常见的“Vitalik 赌约”目前更像二手说法,我没有找到 Vitalik 本人公开确认赌约条款与输赢结论的原始材料。项目仓库、官网、进度文档和路线图映射都对外公开,仓库也明确写了它是一个面向以太坊 L1 Strawmap 的实验性参考实现。它不是一篇概念文章,更不是几张效果图,而是一份可以下载、编译、运行、测试的公开工件。
但传播稿里最抓眼球的几句,大多需要降温理解。公开仓库当前写的是项目基于 Claude Code、大约用时 ~8 days、估算 API 成本约 ~$7,100,而不是传播稿里的 6 天和 5750 美元。仓库也明确写着它是 experimental research project,不是生产级客户端。再比如“每秒同步 9000 个区块”,公开文档更准确的写法是 Sepolia snap sync 时 headers at ~9K/sec,这指向的是头部下载速率,不是端到端执行吞吐,更不是“未来以太坊已经跑出了 9000 区块每秒”。
所以,最准确的一句话不是“一个人 6 天写完未来以太坊”,而是“一个人用 AI 和上游实现,做出了一份覆盖 Strawmap 的大型实验性参考实现,并把很多原本停留在路线图层的问题,提前拖到了代码层”。
哪些说法站得住,哪些需要降温
先说站得住的部分。
ETH2030项目本身属实,而且目标写得非常直接,就是“Ethereum execution client targeting the L1 Strawmap”。- 项目自报的工程体量也确实很大。README 当前写的是约
720K LOC,进度文档写的是约713K行,外加18,000+测试和36,126 / 36,126的 EF state tests 通过。 - 它确实覆盖了 Strawmap 的大量条目。官方 Strawmap 在 2026 年 2 月 25 日公布了五个 north stars,ETH2030 的文档则把这些目标拆进了
65个路线图项,并逐项做了映射和 gap analysis。 - 它也确实做了网络和客户端层面的实际验证。仓库写明了
eth2030-geth可以进行 Sepolia snap sync,主网侧至少完成了启动、链 ID、发现节点、RPC 等验证。
再说必须降温的部分。
- “Vitalik 输掉赌约”这句并没有足够一手材料支撑。我能确认的是,YQ 本人公开说过这是和 Vitalik 的赌约;但我没有找到 Vitalik 本人公开确认赌约条款和“输赢结论”的原始帖文。
- “6 天、5750 美元”并不是当前仓库公开写法。当前最强的一手材料来自项目 README,它写的是约 8 天和约 7100 美元。
- “36,126 个官方测试全部通过”这个事实本身大体成立,但语境必须补上。仓库写得很清楚,这部分 conformance 是通过导入
go-ethereum v1.17.1后端完成的,不是纯从零自研 EVM 得出的结论。 - “同步 9000 个区块每秒”大概率是把
headers at ~9K/sec夸写成了区块吞吐。后者会误导读者,以为 ETH2030 已经在真实执行路径上证明了未来以太坊的性能。
传播稿最值得警惕的误差,不是把一件假的事说成真的,而是把一件真实但复杂的事,改写成了一个过于完整的胜利故事。
Yaq 的真正价值,不在“做完了未来”,而在“提前暴露问题”
如果把热闹先压下去,Yaq 的真实价值大概有三层。
第一层,是把路线图变成了可执行路线图。
以太坊官方 Strawmap 本质上是一个协调工具,不是冻结完毕的正式规格,也不是生产时间表。它的作用,是让社区对 2026 到 2030+ 的方向形成一张共同地图。问题在于,路线图写得再细,终究还是文档。很多依赖关系、接口冲突和实施顺序,只有真正变成代码时才会露出来。Yaq 做的第一件大事,就是把这张图压成了工程工件。
第二层,是把升级之间的耦合提前显形。
EthDaily 对 ETH2030 的摘要很有启发性。它强调,像 3-slot finality、BALs、gas repricing、blob 相关能力之间,并不是平铺直叙的 feature list,而是一张彼此牵动的网。单个提案在各自文档里也许都说得通,但一旦要在同一客户端里一起跑,谁依赖谁、谁阻塞谁、谁必须先落地,就会立刻变成实际工程问题。这个暴露过程,本身就是路线图验证。
第三层,是把社区讨论从抽象争论推向了可验证争论。
在没有参考实现时,很多讨论会停在“理论上可行”“直觉上合理”“以后再看实现”的层面。现在社区至少有了一份可下载、可跑测试、可看文件结构、可指出 bug 和 stub 的对象。即便 ETH2030 最终不成为任何正式客户端,它也已经把争论的粒度推进了一层。
这也是为什么我更愿意把它看成“参考实现的胜利”,而不是“AI 已经把协议工程师替代了”。
他到底是怎么做的
公开仓库其实已经把方法写得很明白了,只是传播稿几乎没有提这一层。
第一,不是从零重写全部底层,而是大量复用上游能力。
ETH2030 README 和进度文档都明确写了一个关键事实:它通过 pkg/geth/ 适配层,把 go-ethereum v1.17.1 导入为库,复用其 EVM 执行、状态数据库、Trie、gas accounting、标准 precompile、P2P、snap sync、JSON-RPC 等成熟能力。这一点非常重要,因为它意味着 36,126 / 36,126 的 EF state tests 通过,不能被误读成“全部逻辑都是全新原创实现”。
第二,是在上游能力之上,补出 Strawmap 特有的未来层。
项目文档把这部分写得很清楚。ETH2030 自己补的重点包括 BALs 并行执行、ePBS、FOCIL、PeerDAS、后量子签名与注册表、Native Rollups、zkVM、Engine API V3-V7、加密 mempool、proof aggregation 等。换句话说,它不是重写一遍 geth,而是把 geth 变成了未来路线图的一块后端底盘。
第三,是把“规格摄取”做成了系统工程,而不只是一个提示词。
从仓库结构看,Yaq 把官方规格、测试向量、参考实现和研究代码大规模拉成了 refs/ 子模块,覆盖 EIPs、执行层与共识层 specs、go-ethereum、blst、circl、gnark、go-eth-kzg 等上游。我的判断是,这类项目的关键不在模型会不会续写函数,而在能不能把上游资料组织成可调用的工程上下文。ETH2030 在这一步做得很重。
第四,是把验证放到了方法中心。
仓库里不仅有 README,还有 PROGRESS.md、GAP_ANALYSIS.md、EIP_SPEC_IMPL.md、Kurtosis devnet 测试说明,以及对外公开的构建和验证命令。README 还给出了开发统计:约 3.42 billion billed tokens、34,172 次 API 调用、966 个 session 文件,其中 957 个是 sub-agent。单看这组数字,就能看出这不是“写一段 prompt 让 AI 自己飞”,而是一个高并行、多轮反馈、强验证导向的 agentic coding 流程。
如果要把方法压缩成一句话,我会说它更像“AI 加速的系统整合与验证”,而不是“AI 单次生成奇迹”。
论文和数据真正支持了哪些判断
Yaq 这件事本身,目前没有正式的同行评审论文。能给它提供支持的,不是“ETH2030 已被学术界证明正确”,而是相关领域的论文的确支撑了它提出的问题形状。
第一,并行执行确实有潜力,但冲突是硬边界。
Block-STM 论文已经证明,在区块链执行里通过乐观并发和动态依赖处理,确实有机会大幅提升吞吐。但论文也同样说明,吞吐高度依赖冲突模式和调度策略。也就是说,传播稿里“并行执行理论上能飞起来”这句话不算错,但真正关键的后半句是:冲突交易、对抗性 workload 和共享状态热点,会迅速吞掉收益。Yaq 把这层风险拉出来,是有论文背景支撑的。
第二,后量子迁移不是写个接口就结束。
poqeth 这篇 IACR ePrint 论文讨论的正是后量子签名在以太坊环境里的验证成本问题。它给出的结论很明确,后量子签名验证的链上开销会非常高,设计必须面对性能和费用约束。ETH2030 在后量子这条线上的价值,也更像“先把通路和冲突点搭出来”,而不是宣布“后量子迁移已经被轻松解决”。
第三,测试全绿不等于生产就绪。
UTBoost 对 SWE-Bench 的研究提醒了一件所有工程团队都该记住的事:当评估集和测试集本身存在不足时,很多错误解答也能“看起来通过”。把这个判断挪到 ETH2030,很容易明白为什么我不愿意接受“测试全过,所以未来路线图已经被跑通”这种说法。测试全过当然重要,但它证明的是兼容性和一部分行为正确性,不是安全性、性能上界和生产可运营性。
第四,AI coding agent 已经开始改变开源开发结构。
关于 AI coding agent 的开源研究也在累积。《The Impact of AI Coding Agents on Open Source Software Development》这篇论文观察到,agent 创建的 pull request 占比在样本期内持续上升,而且改动规模更大、节奏更快。ETH2030 之所以值得写,不是因为它是孤例神迹,而是因为它可能正站在一种新型研发范式的前沿。
舆论风向:惊叹居多,真正专业的人会自动保留一句
从目前公开可见的社区反应看,主基调是惊叹,但不是无脑封神。
正面的一侧很明显。以太坊生态媒体愿意写它,社区里也普遍承认这是一次非常强的实验性参考实现。原因不难理解,任何一个能把未来路线图压成代码的人,都会立刻获得关注。
谨慎的一侧同样明显。仓库自己一开始就写了 not production-ready。Gap analysis 里也反复承认,有些部分是“功能打通但距离生产优化还有差距”,尤其是密码学后端、共识整合、zk 证明后端和性能优化层。真正懂协议工程的人,通常不会把这类项目当成“正式客户端已经提前诞生”,而会把它看成“值得认真拆读的实验工件”。
截至 2026 年 3 月 16 日,我也没有找到来自以太坊基金会核心研究员的正式技术背书、正式审计报告或同行评审论文。所以更负责任的表达应该是:社区已经注意到它,很多人认为它有讨论价值,但它还没有走到“专家共识确认可行”的阶段。
对工程界的影响,比区块链本身更大
如果只把 ETH2030 当成币圈故事,这件事就写小了。它真正可能改变的,是大型系统研发的前置流程。
过去很多复杂系统的推进顺序是:研究论文、路线图、规格、实现、联调、再发现彼此不兼容。这个过程很长,也很贵。AI 进入之后,更现实的新顺序可能会变成:研究论文、路线图、AI 参考实现、冲突暴露、差分测试、再决定哪些值得投入正式团队。
这会把工程组织往三个方向推。
- 架构师和技术负责人会更少花时间在“能不能写出来”,更多花时间在“哪些必须先验证、哪些可以复用、哪些风险不能被假装已经解决”。
- 规格文档会越来越需要尽快变成“可执行规格”,因为只有进入代码和测试,问题才真正暴露。
- 验证、测试、审计、形式化约束和差分比较会变得更重要,因为 AI 能极快地产生“看起来完整”的系统,也会极快地产生“尚未真正证明”的幻觉。
所以 Yaq 对工程界的启发,不是“以后一个人就够了”,而是“以后越大的系统,越应该先把未来版本快速跑一遍”。这会让错误更早暴露,也会让组织更早面对真正需要人类决策的部分。
最后的判断
这篇传播稿最不准确的地方,不是它夸 Yaq,而是它把 Yaq 的贡献夸错了方向。
Yaq 真正厉害的,不是“替以太坊社区把 2030 年的正式客户端提前做完了”。他真正厉害的地方,是在 2026 年就把一张本来停留在文档层的未来路线图,压缩成了一份可运行、可测试、可争论的工程工件。它当然还远远不是终局,但它把很多本该到 2028 年、2029 年才暴露的系统问题,提早拖到了今天。
这件事对以太坊有价值,对更广泛的软件工程也有价值。因为它提示我们,AI 在大型系统里的第一波真正杀伤力,可能并不是自动替代核心工程师,而是把“未来版本的验证成本”打到足够低,低到很多路线图再也不能只靠嘴说。
还没有评论,你可以写下第一条。