圣何塞会场外,姚欣先讲的是需求
录制时间很巧。GTC 开幕前两小时,姚欣在节目里先把场子拉到需求侧。
他说,市场像过完了一个春夏秋冬;训练是一池水,推理是一条大河;行业已经走到“后奇点时刻”。这些话听上去都很满,像会前气氛里常见的重话。顺着整段访谈往下听,会发现他想强调的事情其实很集中:今年 GTC 值得看的,不只是芯片代际,而是需求已经明显换了方向。
过去外界盯着训练,盯着谁的卡更快;现在他更在意推理、agent 和由此带出的基础设施投入。也因为这个缘故,他把这期节目讲成了一份 2026 AI Q1 的现场观察。芯片仍然重要,但它在这里更像结果,不是起点。
把这层意思理顺之后,节目里那些很有张力的句子就容易落回原位了。有些能在财报和官方发布里找到支撑,有些是顺着公开事实往前走半步,有些则带着明显的一线体感。
“一年像过了四季”,先别把它听成夸张
姚欣这段最稳的一部分,是他对市场节奏变化的感觉。
他说,去年下半年到现在,大家对 AI 算力的预期像是重新过了一轮周期。这个说法听起来很主观,但放到公开信息里,其实并不离谱。Alphabet 在 2026 年 2 月披露的 2025 Q4 财报电话会上,Sundar Pichai 明确说 Google 仍然处在 supply constrained 的状态,需求来自 Google 自己的服务、DeepMind 的模型开发和 Cloud 客户,而且这种紧张状态预计会持续一整年。同期,Alphabet 给出的 2026 年资本开支指引是 1750 亿到 1850 亿美元,远高于上一年。
这至少说明一件事:大厂今天讨论 AI,不再是“值不值得配一点预算试试看”,而是“怎么把更多钱、更快的建设周期和更多供应链资源压进去”。姚欣说市场短短一年像过了四季,讲的就是这种情绪变化。去年不少人还在担心,模型更便宜了、效率更高了,会不会反过来打掉算力需求;到了今年,讨论已经变成需求太强,供给反而追不上。
不过这句话也要收一收。它说明的是市场预期迅速切换,不等于所有公司都已经赚到钱,更不等于整个 AI 应用层已经稳定成熟。真正成熟的行业,很少会在半年里同时出现这么高的热度、这么多的资本开支和这么强的路径争论。换句话说,姚欣在这里说的是“需求预期被重新定价”,不是“行业已经进入稳定兑现期”。
为什么他说“训练是一池水,推理是一条大河”
这是这段访谈里最值得保留下来的一句。
它的意思并不是训练不重要了,也不是预训练已经结束了,而是推理的消费形态和训练完全不同。训练像一次大规模工程,集中、昂贵、节奏清楚;推理更像持续不断的流量,只要模型开始进入真实产品、客服、搜索、办公、代码和 agent 工作流,它就会变成一种每天都在发生的消耗。
这句话容易被误听成另一种更夸张的版本,好像只要进入推理时代,算力就会自动无穷上涨。现实没有这么简单。推理需求确实会涨,但它同时也受模型效率、缓存机制、硬件结构、任务设计和价格弹性的共同影响。真正让姚欣这句话成立的,不是“推理天然比训练大”,而是推理一旦和 agent 结合,它不再只是“回答一次问题”,而会变成一串连续动作。
举个简单例子。
传统聊天只需要模型吐出一段回答,推理过程相对短。可一旦进入 agent 场景,它可能要先理解任务,再拆步骤,再调用工具,再读回结果,再重新判断下一步,有时还要多轮重试。对用户来说,这仍然像一次请求;对底层算力来说,这已经不是一次推理,而是一串推理。也正因为这样,姚欣才会说 scaling law 正在“后移”。过去大家盯着预训练的 scaling,后来开始盯 test-time compute,现在又开始盯 agent 级别的算力消耗。
这里最需要校正的是语气,不是方向。方向上他说得对:算力重心确实在往推理和 agent 走。可如果把这句话听成“训练已经退场”或者“只要 agent 火了,所有推理芯片都会无脑大赚”,那就过头了。
“后奇点时刻”是什么,它不等于 AGI
姚欣在节目里用了一个很强的词,叫“后奇点时刻”。
这个词如果不解释,很容易被听成一种技术神话,好像 AI 已经跨过了某个不可逆的终点线。可结合他整段话的上下文,他真正想说的不是 AGI 已到,而是产业的需求曲线已经跨过了某个临界点。
这个临界点大概有三层意思。
第一层,模型能力已经好到能在一批真实任务里持续产生价值。不是所有任务都行,但已经足够让企业愿意把预算从试验阶段往生产阶段推。
第二层,需求不再只是模型公司自己的训练需求,而开始扩散到搜索、云、企业代理、代码、客服、多模态交互这些更广的消费层。需求一旦扩散,基础设施就不再只服务少数几家前沿实验室。
第三层,资本市场和产业链开始把这种需求当真。也就是说,不只是讲故事的人相信,花钱的人、扩产的人、签单的人也开始按这个未来下注。
如果按这个意思理解,“后奇点时刻”其实是个商业词,不是神秘主义词。它描述的是需求跨过拐点,而不是智能跨过终局。把它这么翻译回来,这个词就没那么吓人了,也更接近姚欣真正想表达的东西。
为什么英伟达这时候开始反复讲 AI 工厂和五层蛋糕
姚欣有一个观察很重要:英伟达最近的叙事变得比以前更从容了。
他的意思不是黄仁勋不着急了,而是英伟达终于拿到了一套更适合当前阶段的讲法。以前它主要讲 GPU、讲训练、讲性能领先;现在它开始反复讲 AI factory、讲五层蛋糕、讲 agentic AI、讲物理 AI。这不是话术小修小补,而是在重新定义自己卖的到底是什么。
黄仁勋在 2026 年 3 月 10 日 的官方博客里把 AI 写成一个“五层蛋糕”:能源、芯片、基础设施、模型、应用。这套说法的核心是,AI 不是一个聪明应用,也不是一个单独模型,而是一套从电力到应用层层相扣的工业系统。六天后,NVIDIA 又在 Vera Rubin 平台的新闻稿里把这个逻辑继续往前推,直接写成“为 pretraining、post-training、test-time scaling 和 agentic inference 的每个阶段配置不同基础设施”。
这正好能解释姚欣为什么会说黄仁勋“把握住了行业趋势”。因为当行业重心从训练转向推理,再往 agent 迁移时,英伟达如果还只讲一块最强 GPU,就会显得太窄。它现在必须把自己讲成一整座工厂,才能同时承接训练、推理、长上下文、低延迟、多模态和 agent 工作流。
这里也有一个需要收住的地方。AI 工厂这套说法当然有现实基础,但它也是英伟达最强的定价叙事。它的作用不仅是解释产业趋势,也是把客户的注意力从“某块芯片值多少钱”引到“整套系统值多少钱”。所以听到这个词时,既要知道它说中了什么,也要知道它在卖什么。
姚欣哪几句最值得信,哪几句要留个心眼
如果把这段访谈压缩成一个判断,我会这样分。
最值得信的,是他对需求迁移的把握。推理正在替代训练成为更主导的市场叙事,agent 正把推理进一步拉长成连续工作流,英伟达也因此必须从卖芯片走向卖系统。这几层放在一起看,是说得通的。
第二值得信的,是他对资本开支和供应链紧张的感觉。无论是 Google 的财报口径,还是英伟达自己把叙事往基础设施上抬,都说明这轮建设并没有减速,至少头部公司还在重压。
需要留心眼的,是节目里那些特别精确、但没有在公开口径里一一展开的数据句子。比如“谷歌半年 token 增长超过 13 倍”这类说法,更适合被理解为嘉宾在行业交流和一线观察里的信息提炼,而不是已经由统一公开口径完整展开的数据点。公开可核验的信息当然能证明 Google 的 token 消费和 AI 需求在快速上涨,但和节目里这句具体表述之间,不能简单画等号。
同样需要留心的,还有“今年 agent 大爆发”这种说法。它描述的是趋势,不是普遍兑现。今天确实已经有更多 agent 产品、更多企业代理和更多围绕 agent 的基础设施投入,但这不等于 agent 作为一个商业形态已经完成验证。很多公司今天还在验证的是“能不能跑起来”,不是“能不能稳定挣钱”。
回头看,这段访谈留下的是一条需求线索
姚欣这段话里,最值得留下来的不是热闹的形容词,而是一条很清楚的需求线索。行业注意力正在从“模型还能不能再强一点”,慢慢移向“需求会以什么样的形状持续落地”。
于是,推理的重要性上来了,agent 把推理链条拉长了,云厂商和模型公司都开始重新算基础设施这笔账。英伟达为什么反复讲 AI 工厂、五层蛋糕,也就顺着这条线解释得通了。
这并不意味着节目里的每一句重话都该照单全收。热度、投资节奏和公开口径之间,仍有距离。但把这些水分拧掉之后,姚欣这段访谈留下的核心意思还是很清楚:AI 需求已经从试探转入建设阶段,这个变化正在反过来塑造 GTC 的叙事。
更新附注
v1.1 2026-03-30:重写标题摘要与正文开头、结尾,收掉明显的模板句和裁判腔,统一调整为更平实的叙述节奏。
还没有评论,你可以写下第一条。