
CES 2026(美国消费性电子展)于 1/6 - 1/9 在美国内华达州拉斯维加斯(Las Vegas)正式登场,全球科技巨头齐聚一堂,抢先释出今年最关键的产品。作为 CES 展场中最受市场关注的焦点之一,NVIDIA 执行长黄仁勋在主题演讲中也揭示了 NVIDIA 2026 年在 AI 领域的最新布局。今天我们整理了本次演讲的几大核心重点与关键看点,带你快速掌握 NVIDIA 接下来的发展主轴,并分析其可能如何牵动 2026 年 AI 相关投资机会的布局方向。
重点一:AI 成为新一代基础平台
电子与运算产业约每 10 至 15 年便会出现一次关键性的平台重置,而本轮循环更同时发生两项深层平台转移:
- AI 已由单一应用技术跃升为新一代通用型基础平台,未来各类应用与服务的核心逻辑将直接建立于 AI 之上。
- 软体开发方法论正由以程式设计为核心的模式,转向以模型训练为核心的架构,应用不再是预先编译的静态程式,而是能理解上下文并即时生成内容的动态系统,进一步推动运算重心由 CPU 明确转向 GPU。GPU 的角色亦随之转变,从辅助加速器升级为新一代运算架构中的核心执行单元,使既有运算堆叠几乎各层皆需重新设计。
自 2022 年 ChatGPT 引爆大语言模型(LLM)应用浪潮以来,AI 硬体设备需求受到 scaling law 所揭示的「算力、资料与模型规模扩张可持续换取能力提升」而驱动提升。另一方面,随着推理能力提升与 Agentic AI 走向多步任务与工具调用,推论端需求正呈现加速成长,带动 AI 硬体需求进入下一阶段。即便单位 token 成本持续下降,成本降低反而加速应用渗透并提升使用强度,使总算力消耗不减反增,最终让 AI 所带动的算力需求逐步转为由长期资本支出支撑的结构性成长,而非短暂的产品循环。
Vera Rubin 进入量产阶段
黄仁勋在演讲中表示,单靠制程微缩已经很难达到上述的需求,极限的运算堆叠与跨元件间的 co-design 应该才是下一代的竞争关键。因此 Nvidia 预计将 Vera Rubin 定位成完整的 AI 超级运算平台,由 Vera CPU 及 Rubin GPU 作为核心组成超级晶片(Superchip),并使用 NVLink 72 与新一代 Spectrum-X AI 乙太网路作为资料传输技术解决方案。Vera Rubin 采用台积电最新紧凑型通用光子引擎(Compact Universal Photonic Engine, COUPE)技术将光模组整合至晶片封装上,加速整体交换效率。另外也采用 CoWoS-L(Local Silicon Interconnect)先进封装技术,加大整体封装面积。大量采用前缘技术加上跨元件共同设计,辉达试图打造出新一代可扩展的 rack-scale AI 超级运算解决方案。产品预计于 2026 年下半年(2H 2026)由云端服务商与企业客户开始导入部署。
重点二:开源模型加速渗透,带动产业长期增速

DeepSeek R1 的出现,凸显开源模型正加速普及并快速渗透至各产业与不同国家。尽管相较最前沿的闭源模型仍约落后六个月,但其效能几乎以「每六个月一代」的节奏持续逼近,显示 AI 能力的扩散已不再由少数大型云端服务商所垄断。在此产业趋势下,开源生态的活络反而有利于整体运算平台与 GPU 供应链发展,因为 AI 需求将趋于普及化、碎片化,并向更多元应用场景延伸。随着开源模型、资料与工具链逐步完备,企业与组织得以自行建立与运作模型体系,加快训练、部署与迭代速度,并显著降低导入门槛,进而推动硬体采用与软硬体整合深化。整体而言,开源并非削弱产业既有的竞争结构,而是透过「模型+资料+工具链」的开放化把生态系做大,成为长期产业成长动能。
重点三:Agentic AI 工具走向自主系统,需求再升级

Agentic AI 使 AI 从「工具型应用」迈向「自主系统」,其核心不再仅止于内容生成,而是具备自主规划、自主执行与自主学习的能力。Agentic AI 透过将任务拆解,结合搜寻与查证、工具呼叫、规划与执行等多步流程,降低模型幻觉风险。这一演进方向也意味着产业重心将由追求全知型通用模型,转向以特定任务为导向的客制化模型体系。对应至系统架构层面,AI 应用走向多模态、多模型、多云与混合云并存的形态,在不同情境下选用最适模型,并于云端与边缘之间动态调度。
Agentic AI 亦被视为企业软体的新互动介面,使 SaaS 从表格与命令列转向以对话为核心的操作模式,并透过意图导向的模型选择,在隐私敏感场景采用本地模型、在泛用任务中串接前沿模型,整合机器人、语音与视觉等应用。随着 agentic AI 多步推理带来庞大的 context 与负载,推论对记忆体与系统设计的要求显著提升,促使上下文由 GPU 延伸至储存与网路层进行管理。整体而言,agentic AI 的兴起标志着推论基础设施与训练基础设施的结构性分化,并将 AI 应用推向以自主决策与长时间运作为核心的新一代系统形态。
重点四:Physical AI 走进物理真实世界的下一步
Physical AI 的核心包含三种不同功能的电脑,分别是训练 (training) 电脑、推论 (inference) 电脑,以及用来生成与验证资料的模拟电脑 (simulation computer)。未来的 AI 能真正理解物理世界的结构与规律,包含物体恒存性、因果关系、摩擦、重力、惯性,以及行为与结果之间的连动关系。物理世界的最大困难在于资料稀缺与情境分析,真实世界不可能搜集到涵盖所有互动的资料,因此必须引入模拟电脑。透过 Omniverse 的数位双生与 Cosmos 的世界基础模型,NVIDIA 将「算力转换成资料」,用符合物理定律的合成资料来补齐现实世界无法涵盖的场景,让 AI 能在虚拟世界中反复学习、测试与推理。
重点五:Alpamayo 可解释端到端自驾
自驾车将成为 Physical AI 市场的第一个主流应用,举 NVIDIA 的 Alpamayo 为例,他是全球第一个会思考、会解释决策的端到端自驾 AI,它能清楚说明自己即将采取的行为、做出该行为的理由,以及预期的行车轨迹,而这一点对自驾而言至关重要,因为无限多的 long-tail 场景常常是自驾车最难以判断的情况。Alpamayo 的训练结合真人驾驶示范、Cosmos 生成的物理一致合成资料,以及大量高品质人工标注,让模型能把陌生情境拆解为已知的物理与交通子问题来推理。更重要的是安全架构设计,Alpamayo 与一套可完全追溯、规则导向的传统自驾堆叠同时运行,由安全与政策评估器即时判断是否交由 Alpamayo 接手,否则切回保守系统。这套双堆叠机制,搭配与 Mercedes-Benz 的实际量产合作,让 Alpamayo 准备进入真实道路、并能持续 OTA 演进的商用级 Physical AI。
重点六:机器人是下一个 AI 产业浪潮

在机器人领域,黄仁勋把未来十年形容为「真正的机器人时代」,他展示了机器人如何在 Omniverse 与 Isaac Sim/Isaac Lab 中在虚拟世界反复训练行走、操作、协调与避障,等到行为稳定后才进入现实世界,让机器人不再依赖昂贵且危险的实体试错。更进一步,他将工厂本身定义为巨大的机器人系统,从晶片设计、系统模拟、生产线配置,到实际运作,全都在电脑中先完成设计与验证,这也是 NVIDIA 与 Cadence、Synopsys、Siemens 等工业软体巨头合作的核心,他们把代理式 AI 引入设计、制造与营运流程。最终愿景是希望各种尺寸、各种用途的机器人都共享同一套 Physical AI 方法论,而这将成为继自驾之后,规模更大、影响更深的下一个 AI 产业浪潮。
看更多Nvidia 相关内容
