黄仁勋的CES“疯狂预言”:AI算力暴涨、成本暴跌,自动驾驶的十年赌局还能赢吗?
在拉斯维加斯的CES展台上,那个穿着黑色皮衣的男人又来了。
英伟达CEO黄仁勋的演讲,现在几乎成了科技界的“新年布道”。只要他那张著名的PPT一翻,未来一年的科技风向标基本就定了。今年,老黄带来的不只是几块新显卡,而是一组让人看了既兴奋又背脊发凉的数据,以及他对未来汽车形态的“十年赌约”。
作为在这个行业摸爬滚打多年的老编辑,我把他的这次演讲拆解了一下。简单来说,黄仁勋正在告诉全世界:AI不仅会变得更聪明,而且会变得极其便宜;而汽车,将会是第一个被彻底改造的“移动机器人”。

疯狂的“黄氏定律”:算力暴涨,成本狂跌
如果不算摩尔定律,我们现在可能正处于一个新的指数级增长时代——我们可以暂且叫它“黄氏定律”。
在这次CES演讲中,黄仁勋抛出了一组非常硬核的数据,这组数据直接定义了未来AI的进化速度:
模型规模每年增长10倍:这意味着AI的“脑容量”在疯狂扩大。
Test-Time Scaling(测试时扩展)产生的token数每年增长5倍:通俗点说,就是AI在“思考”时处理的字元数量越来越多,思考得更深、更久。
每token的成本每年便宜10倍:这是最关键的一点。智能正在变得像自来水一样廉价。
大家别被这些术语绕晕了。我们用人话来解释一下:Test-Time Scaling(测试时计算)是最近AI圈很火的概念,就像以前学生考试是靠死记硬背(预训练),现在允许你考试时翻书、查资料、甚至慢慢推导(推理时的计算)。黄仁勋认为,AI未来会更像这种“学霸”,给它更多计算时间去“想”,它就能解决更难的问题。
现在的局势是:AI的脑子越来越大(模型x10),想得越来越深(Token x5),但每一次“思考”的费用却在打一折(成本 x 0.1)。
这不仅仅是技术进步,这是经济规律的重塑。当算力成本以每年10倍的速度下降时,那些以前觉得“太贵了没法做”的应用——比如真正的L4/L5级自动驾驶——突然就变得划算得多了。
Alpamayo与VLA模型:给汽车装上“懂物理的大脑”
为了支撑这个愿景,黄仁勋扔出了一个大招:Alpamayo系列VLA开源AI模型。
很多朋友可能熟悉LLM(大语言模型),比如ChatGPT。但汽车不需要写诗,它需要开车。这就是VLA(Vision-Language-Action,视觉-语言-动作)模型大显身手的时候了。
Vision(视觉):汽车看路况。
Language(语言):汽车听懂你的指令,或者理解交通标志的语义。
Action(动作):汽车控制方向盘和刹车。
以前的自动驾驶逻辑非常死板,工程师写了成千上万行“if-else”代码(如果前面有人,就刹车)。但现实世界太复杂了,代码永远写不完。
VLA模型就像是一个“看过几百万公里驾驶视频的老司机”。它不再死记硬背规则,而是理解了物理世界的规律。黄仁勋发布的Alpamayo系列,就是把这套高级的“老司机思维”开源出来。
为什么要开源?老黄很精明。他想让全世界的开发者都基于英伟达的架构来造车、造机器人。一旦生态形成了,英伟达就是那个卖铲子的人。对于我们普通用户来说,这意味着未来的汽车可能不再是“越造越笨”,而是具备了真正的理解能力,甚至能像人类一样应对突发状况。
十年赌约:以后还有“司机”这个职业吗?
基于上面那些技术底座,黄仁勋做出了一个非常大胆的预测。他在CES上放话:“未来十年里,我相当肯定世界上很大一部分汽车将是自动驾驶或高度自动驾驶的。”
注意,他用的是“相当肯定”。
这让我想起几年前他在中国厨房里做“煎蛋饺”的视频。当时他说机器人要学会做饭还得几十年,但对自动驾驶,他却异常乐观。为什么?
因为VLA模型和Test-Time Scaling解决了自动驾驶最头疼的问题——长尾场景。
什么叫长尾场景?就是那种万分之一概率才会发生的怪事。比如:前面一辆卡车拉了一车西瓜,突然翻倒了,满地滚的西瓜怎么办?以前的AI可能直接死机或者撞上去。但现在的AI可以通过“思考”(Test-Time Scaling),结合它对物理世界的理解,判断出“应该减速避让,因为西瓜是圆的,会乱滚”。
当AI能处理这些突发状况,且成本又足够低时,所谓的“Robotaxi”就不再是赔本赚吆喝了。
英伟达自动驾驶核心指标增长趋势 (预测)
为了更直观地理解黄仁勋描绘的未来,我们来看看这几个关键指标的预期增长:
| 核心指标 | 年增长率 (CAGR) | 含义 | 对用户体验的影响 |
|---|---|---|---|
| 模型规模 | 10倍 (1000%) | AI参数量爆炸,记忆库扩容 | 车辆能识别的场景更多,从“没见过”到“我都懂” |
| 思考深度 | 5倍 (500%) | 推理时的Token数量增加 | 遇到复杂路况不再“发呆”,决策更像老司机 |
| 计算成本 | 0.1倍 (降低90%) | 每一次思考的硬件成本大幅下降 | 自动驾驶功能不再昂贵,下放到家用轿车 |
这对我们意味着什么?
既然我们都在百度上搜新闻,大家最关心的肯定不是参数,而是:这事儿跟我有啥关系?
1. 买车:以后买的不是车,是一台带轮子的超级计算机
如果你打算在未来5-10年内换车,你可能得关注一下车企用的是谁的芯片。英伟达的Thor芯片、Orin芯片正在成为高端车的标配。如果你的车不支持“深度思考”,可能就像现在的智能手表不能连WiFi一样,属于“半智能”产品。
2. 用车:真正的“精力解放”
现在的所谓辅助驾驶(L2级),还得让你把手搭在方向盘上,时刻准备接管,其实开起来更累。黄仁勋描述的未来,是你可以在车上开视频会议、打游戏,甚至睡觉。当每token的成本降低90%,车企就有算力成本去跑更复杂的算法,让你彻底从驾驶中解脱出来。
3. 行业:中国车企的“军备竞赛”
别忘了,中国现在是全球最大的新能源汽车市场。小米、比亚迪、理想这些头部玩家,哪一个不是在疯狂卷算力?黄仁勋的技术路线图,基本上就是中国车企未来十年的产品规划图。
总结一下
黄仁勋这次在CES上的演讲,信息量很大。剥去那些生涩的技术术语,核心逻辑其实很简单:
因为算力变得超级便宜,所以AI可以变得超级聪明(通过VLA模型和深度思考),所以自动驾驶终于能在经济账上算得过来了。
那个“皮衣刀客”又在画饼了,但不得不承认,他画的饼,一个接一个地变成了现实。对于我们普通人来说,留给人类司机的时间,可能真的不多了。
读者问答 (Q&A)
Q1: 黄仁勋提到的Test-Time Scaling到底是什么意思?
简单来说,就是让AI在“回答问题”或“做决策”的那一瞬间,多用几秒钟多“想”几步。就像下棋,高手不仅看一步,还会往后算十步。以前AI为了省钱算得浅,现在算力便宜了,可以算得更深,所以决策就更准。
Q2: VLA模型和现在车上的视觉方案有什么区别?
现在的方案大多是“看到了什么,就匹配什么规则”,比较死板。VLA(视觉-语言-动作)模型赋予了汽车“理解”能力。它不仅能看见“一只狗”,还能理解“狗可能会突然跑过马路”,从而提前预判。它是将视觉感知和物理规律结合在了一起。
Q3: 自动驾驶汽车真的能在十年内普及吗?
黄仁勋的预测是基于技术发展曲线的。技术上确实在飞速进步,但普及还受限于法律法规、基础设施建设和大众接受度。虽然在一线城市和高速路段可能会很快普及,但要覆盖到所有偏远地区,十年可能还是一个比较乐观的估计。
Q4: Alpamayo模型开源,对普通开发者有什么好处?
这意味着中小团队甚至个人开发者,也能利用英伟达提供的顶级工具去开发自动驾驶或机器人应用,不需要从零开始造轮子。这会极大地加速创新的涌现。
数据与资料来源:
NVIDIA CES 2025 Keynote (英伟达2025年国际消费电子展主题演讲)
Jensen Huang on Test-Time Scaling and AI Model Economics (黄仁勋关于测试时扩展与AI模型经济学的论述)
Industry Analysis on VLA (Vision-Language-Action) Models (关于视觉-语言-动作模型的行业分析)