先把时间线摆正:这不是今天的新新闻
如果你最近又刷到“光纤代替内存”“32TB/s 秒杀 DRAM”“AI 硬件要变天”这类标题,第一件事不是急着表态,而是先把时间线拉直。
这轮讨论的可核实起点,大致是 John Carmack 在 2026 年 2 月 6 日 的一条社交媒体发言。二级媒体在 2 月 9 日 左右开始集中转述,把它包装成“用长距离光纤当 L2 cache 或 DRAM 替代品”的激进设想。今天是 2026 年 4 月 3 日,所以这显然已经不是一条新新闻,更像是一轮旧讨论被重新标题化。
真正值得整理的,不是“它有没有传播价值”,而是这套说法里到底哪部分是物理上成立的,哪部分是概念混淆,哪部分又确实指向了 AI 硬件接下来会变化的方向。
“32TB/s”这笔账为什么算得出来
把最容易引发误解的数字单独拆开,事情就清楚很多。
如果一条光链路能做到 256 Tb/s,按 8 bit = 1 byte 换算,线速就是 32 TB/s。这一步没有问题。Carmack 那个脑洞真正有意思的地方也在这里:如果把高吞吐光链路和足够长的光纤盘起来,理论上确实可以在“光还没跑完”这段时间里,拥有一大块正在链路中飞行的数据。
再往下算,标准光纤里的信号传播速度大约是光速的三分之二量级。200 km 光纤,单程传播大约就是 1 ms。于是你把 32 TB/s 乘上 1 ms,会得到一个非常抓眼球的数量级:大约 32 GB 的数据正在链路里“飞行”。
这也是这类标题最容易成立的地方。它不是纯粹胡编乱造,而是把一个物理上可以成立的吞吐量乘传播时间,做成了一个非常适合传播的数字。
但问题恰恰也从这里开始。
带宽成立,不等于它就是内存
这套说法最大的偷换,在于把三件不同的事情混成了一件事:
- 链路线速
- 数据在飞行中的总量
- 处理器可按需随机访问的内存
前两件事可以同时成立,第三件事却不自动成立。
我们熟悉的 HBM 和 DRAM,价值从来不只是“每秒能搬多少字节”,还包括非常关键的两层语义:一是局部、低时延访问,二是相对通用的随机访问。GPU 并不是只想看“此刻总共有多少数据在系统里”,而是要在某个时间点访问某个地址,最好代价稳定、延迟可预测。
长距离光纤延迟线的问题在于,它更像一条极宽、极长、但强顺序性的流水管道。数据确实在里面,也确实很多,但它不是在那里等你像翻页一样随手取第 173 页。你更像是在等一个高速列车绕一圈回来,再在某个站点把对应车厢接出来。
这就是为什么“光纤里飞着 32GB 数据”和“获得了 32GB 可替代 DRAM 的内存”,完全不是一回事。
毫秒和纳秒不是一个量级问题,而是一个系统语义问题
前面对话里你专门问了一句“毫秒和纳秒差多少”,这正好是这篇文章最关键的判断点。
1 ms = 1,000,000 ns
也就是说,毫秒比纳秒大 100 万倍。
这不是一个“慢一点”的差异,而是一个会直接改变系统设计类别的差异。就算你不去精确背 HBM 或 DRAM 的具体数字,只要记住本地内存体系通常工作在纳秒量级,而 200 km 光纤这种想法天然是毫秒量级,你就已经知道它不可能按同一套语义被使用。
作为旁证,学术界近两年讨论的 CXL 内存扩展,哪怕已经比本地 DRAM 慢不少,关注的也还是 数百纳秒 到更高纳秒级的开销,而不是毫秒级。SupMario 这类工作讨论的是怎样把 CXL 扩展做到大规模可用,背后默认的仍然是“它比本地慢,但还在内存语义附近”。
一旦到了毫秒级,系统更像面对一个超远端、超高吞吐、顺序友好的外部层,而不是传统意义上的“下一层内存”。
和今天已经量产的 HBM 比,它也谈不上“秒杀”
这类标题第二个常见误导,是只拿一个线速数字去和整个本地内存体系做平面对比。
现在的 HBM 路线并没有停下。Micron 在 2026 年 3 月 16 日 公开说它的 HBM4 已进入高量产,单 stack 带宽超过 2.8 TB/s。NVIDIA 的 GB200 NVL72 官方页则给出了更直接的系统级数字:单颗 Grace Blackwell Superchip 提供 372 GB HBM3E 和 16 TB/s memory bandwidth。
把这些数字放在一起看,你会发现“32TB/s”并不是那种一眼就把本地内存体系打穿的量级优势。它只是某条超高速链路在非常特定假设下的峰值线速。真正的系统比较至少要同时看:
- 本地带宽
- 随机访问能力
- 端到端时延
- 协议与控制开销
- 光电转换成本
- 软件是否能把这种资源用起来
如果把这些都算进去,“32TB/s 秒杀 DRAM”就明显是标题先行了。
这类设想真正适合什么,不适合什么
把它从“内存替代神话”里解放出来以后,这个脑洞反而变得更有价值了。因为它提醒我们,AI 硬件的真实瓶颈正在从单点算力继续转向数据搬运。
长距离光纤延迟线这类设想,更适合被理解成下面几类东西的极端版本:
- 顺序流式权重层
- 可预测预取的数据管道
- 超高吞吐、低随机性的远端缓冲层
- 某些特殊推理或流处理任务的延迟线结构
它不适合被理解成下面这些东西:
- GPU 的通用本地显存替代
- HBM 的直接平替
- CPU/GPU 随机 load/store 的下一层缓存
- 通用操作系统意义上的“内存条”
一旦你用这个框架看,它就不再像“明天就要替换 DRAM 的革命”,更像一个把极端带宽和极端时延绑在一起的特殊存储层设想。
flowchart TD
A["本地 HBM / DRAM<br/>纳秒级、随机访问、直接服务算子"] --> B["GPU / CPU 主计算芯片"]
C["CXL 内存池<br/>更大容量、更高延迟、仍尽量保留内存语义"] --> B
D["光互连 / Photonic Fabric<br/>先解决机柜级和板级带宽墙"] --> C
E["超长光纤延迟线<br/>毫秒级、顺序流式、极端设想"] -. 更像特殊缓存层 .-> B
真正正在发生的变化,是光互连重构内存层级
如果说这轮标题党里有一半直觉是对的,那不是“光纤替代 DRAM”,而是“光学正在进入数据搬运主战场”。
这几年真正值得追踪的不是一根 200 公里光纤盘起来能不能当天才实验,而是几条已经在工程上持续推进的路线:
- co-packaged optics
- photonic fabric
- CXL memory pooling
- rack-scale 或 cluster-scale 的分层内存
Lightmatter 在 2026 年 1 月 26 日 宣布和 GUC 合作推进面向 AI hyperscaler 的 co-packaged optics。Celestial AI 则一直在用 Photonic Fabric 这套叙事,把计算、网络和内存之间的数据搬运当成独立底盘来做。
这些动作和“光纤代替内存”最大的区别在于,它们没有试图直接跳过现有内存体系,而是在重写体系之间的连接方式。换句话说,真正变化的可能不是“HBM 消失”,而是:
- 本地 HBM 继续承担最贵、最快、最靠近算子的那一层
- CXL 和内存池承担更大容量、更高延迟的共享层
- 光互连把板级、机柜级、集群级的数据搬运成本继续压低
这套路线比“光纤盘成超大内存条”无聊得多,却更像会真的发生的产业路径。
学术界也在沿着“分层”和“池化”推进,而不是宣布内存终结
如果只看论文而不看标题,研究界给出的方向其实很一致:大家在想的是如何把内存从“本机固定资源”变成“可以在更大范围重组的层级资源”。
Optically Connected Memory for Disaggregated Data Centers 讨论的是把光连接带进解耦数据中心内存;Octopus 这类工作在谈低成本 CXL 内存池化;SupMario 则更接近真实工程地看大规模 CXL 内存扩展能做到什么程度。
这些工作有一个共同点:它们都默认内存层级会变复杂,但没有谁认真把“毫秒级长距离光纤延迟线”当作 HBM/DRAM 的直接替代路线。
研究界真正承认的变化是:
- 计算和内存会越来越解耦
- 近内存和远内存的差异会越来越大
- 软件和 runtime 需要更主动地理解分层
- 数据搬运会成为和算力同等重要的系统瓶颈
所以更科学的说法不是“AI 内存要被光纤替代”,而是“AI 时代的内存层级会因为光互连和池化而变得更深、更分布式、更需要 runtime 参与调度”。
那“马斯克站台”这件事该怎么处理
这类标题最容易继续往前走的一步,是把社交讨论热度包装成公司路线图。
更稳妥的处理方式应该是:公开可核实的部分,主要是 Carmack 的讨论被二级媒体放大,以及围绕它产生了一轮“带宽和内存语义是不是一回事”的公共争论。至于“马斯克亲自站台”“xAI 要用它重写 AI 服务器”这类说法,如果没有来自 xAI、Tesla、SpaceX 或正式产品路线图的一手材料,就不应该当成产业事实写进去。
这不是过度谨慎,而是把“热度”与“产品化承诺”分开。前者可以存在,后者需要更硬的证据。
我对这件事的最终判断
如果把这轮讨论当成“明天就会替代 DRAM 的新闻”,它显然站不住。它不是新新闻,也不是已经落地的硬件路线,更谈不上已经证明“AI 硬件要变天”。
但如果把它当成一个高质量工程脑洞,它又不是没有价值。它把一个经常被忽略的问题推到了前台:AI 时代越来越贵的,不只是算力本身,还有算力和数据之间的搬运。
所以更准确的结论应该收在三句话里。
- 第一,它不是“光纤代替内存”,而是“把超高速光链路想象成顺序流式缓存层”的设想。
- 第二,它不可能按 HBM 或 DRAM 的语义工作,因为毫秒级传播延迟和纳秒级本地内存不是同一类资源。
- 第三,真正值得追踪的产业变化,不是这根光纤会不会盘成超大内存条,而是光互连、CXL 池化和 photonic fabric 会不会一起把 AI 硬件的内存层级重写掉。
如果未来两三年 AI 硬件真的“变天”,更可能发生的事也不会是 DRAM 一夜失业,而是本地最快内存、池化远端内存和光学数据搬运层之间的边界被重新划分。
还没有评论,你可以写下第一条。