Please ensure Javascript is enabled for purposes of website accessibility 投资速览:词元即收入——NVIDIA看好人工智能规模化回报的核心逻辑 - 骏利亨德森投资 - 中国投资者 (中文)
中国核准合格境内机构投资者专用

投资速览:词元即收入——NVIDIA看好人工智能规模化回报的核心逻辑

投资组合经理Richard Clode总结了NVIDIA GTC 2026大会的主要亮点。代理式人工智能、推动人工智能可持续回报且基于词元的变现模式,以及机架级协同设计正在重塑人工智能基础设施的技术逻辑与经济格局。

18 Mar 2026
4 分钟阅读

焦点分析

  • 代理式人工智能的拐点:OpenClaw使代理式人工智能的应用强度和算力需求不仅限于简单的对话界面,而正显著扩大至更广阔的领域。
  • 词元驱动收入:NVIDIA认为,词元的分层计费变现模式能够为人工智能资本支出带来可观且可扩展的回报;Vera Rubin有望显著提升每吉瓦收入潜力。
  • 通过极致协同设计构建竞争壁垒:在人工智能推理向低延迟、高吞吐量工作负载转变过程中,NVIDIA致力于紧密整合CPU、GPU、LPU、网络和软件,捍卫其竞争优势。

人工智能的多样性也是其韧性所在。人工智能也凭借其影响范围筑牢了韧性。毫无疑问,这项技术绝非仅限于单一应用,而已成为一项根本性技术,并且绝对会推动计算平台出现新的变革。

 

NVIDIA首席执行官黄仁勋

NVIDIA年度重要活动GTC(GPU技术大会)虽然主要面向开发者,而非投资界,但却堪称整个人工智能行业的重要“行业报告”,展现了该行业的关键进展。首席执行官黄仁勋重点介绍了开源自主人工智能体OpenClaw的深远影响,将其视为推动代理式人工智能普及的关键催化因素。黄仁勋还就词元变现驱动收入增长提出了有力论据,论证了人工智能资本支出能够产生可观回报,并且回报具有可持续性和韧性。

鉴于市场对近期竞争格局的担忧,黄仁勋在主题演讲中还深入阐述了NVIDIA的竞争壁垒。他展示了公司在整机架层面惊人的创新规模与速度:包括从今年晚些时候起,将近期准收购对象Groq整合进公司产品路线图(NVIDIA与Groq签订了非独家推理技术授权协议,旨在加速全球范围内的人工智能推理部署),这与Vera Rubin所代表的“极致协同设计”形成互补——Vera Rubin是一款专为代理式人工智能和推理设计的机架级人工智能超级计算平台。在当前由于电力受限导致数据中心“空壳化”(即本为满足人工智能、云计算等爆发式需求而建,却面临电力限制)的环境下,每吉瓦能提供最多词元(继而产生最多收入)的人工智能基础设施供应商才能成为最大赢家。

我们认为,GTC 2026大会有四大亮点可供投资者参考:

1. OpenClaw是代理式人工智能的“Windows时刻”

[OpenClaw]在短短几周内就成为人类历史上最受欢迎的开源项目。它超越了Linux三十年的发展成果,其重要性不言而喻。

 

黄仁勋

OpenClaw仅用数周便实现了Linux三十年积累的成果。正如当年Windows对于个人计算机普及的意义,OpenClaw可以看作是智能计算机的“操作系统”。这款免费开源的自主人工智能体,通过接入WhatsApp、微信、微软Teams、Telegram及网页浏览器等应用,让用户不再局限于只能与人工智能聊天,而是能够“完成实际工作”(如日程管理、发送邮件、查询航班等)。

如今,每个人都能创建个人智能体,全球所有企业都应制定OpenClaw战略。尽管算力需求在短短两年内增长了1,000,000倍,但黄仁勋认为,鉴于代理式人工智能的算力强度及该项新技术的爆发式应用,我们实际上正处于新一轮指数级增长的临界点。

2.词元=收入

针对当前市场围绕人工智能资本支出可持续性、商业化变现潜力及投资回报率(ROI)的持续争论,黄仁勋更详细地阐述了他的计算逻辑。他认为,人工智能企业应根据词元实行分层计费。该计费模式将设置免费层级以吸引用户,而当用户与人工智能的交互频次增加后,词元变现将快速实现规模化增长。他以全新的Vera Rubin基础设施为例进行说明:一家企业耗资1,000亿美元建造的一座1吉瓦数据中心,将有望实现高达1,500亿美元的收入,展现出极具吸引力的投资回报机会。

3.极致协同设计构筑的竞争壁垒

NVIDIA首席执行官明确指出,人工智能是一个全栈问题,需要全栈解决方案。将于今年晚些时候推出的Vera Rubin平台包含七款全新芯片,通过协同设计实现性能最大化,其中包括近期“准收购”的Groq,将带来超低延迟(快速)的词元生成能力。黄仁勋阐述了如何整合Groq的技术以加速大语言模型的推理过程:通过将推理任务拆分,利用GPU在高吞吐量的优势处理注意力解码(即“提问”)环节,同时将生成解码(即“回答”)环节交由Groq的LPU来完成,以发挥其在带宽方面的优势。除了设计全新的CPU、GPU、DPU与存储外,Vera Rubin的词元生成能力相较短短两年前推出的Hopper (GPU),便已提升了350倍。针对近期市场对光纤网络股票(人工智能数据中心高速光纤链路供应商)的追捧,值得关注的是,黄仁勋重申铜在NVIDIA的路线图中仍有广阔的发展空间,光纤和共封装光学器件将随着时间的推移逐步整合。

4. 预计2025年-2027年销售额将达1万亿美元

每一家软件即服务(SaaS)企业都将转型为智能体即服务(AaaS)企业。

 

黄仁勋

NVIDIA预计,2025年至2027年期间,Blackwell与Rubin的收入将超过1万亿美元。这一数据不包含Hopper、独立CPU或Groq LPU的销售收入。未交付订单量预计在2026年将持续增加,且上述预期规模未来很可能还会上调。

倘若英文版本与中文版本出现歧异,概以英文版为准。

除非另有说明,NVIDIA GTC大会的相关信息均来自Investing.com;NVIDIA GTC大会主题演讲文字记录;2026年3月16日以及NVIDIA.com

AaaS:智能体即服务 (Agentic as a service) 是一种基于订阅的云服务模式,用于部署能够在有限监督下做出决策并执行任务的自主人工智能体,通常由大语言模型 (LLM) 驱动。

人工智能体:指能够运用复杂推理与迭代规划能力,自主解决多步骤复杂问题的人工智能系统。该系统通过整合来自多数据源及第三方应用的海量数据,自主分析复杂挑战、制定策略并执行任务。

资本支出:企业为支持业务增长和扩张而推动新项目或投资时,用于重大长期资产支出的资金,此类资产包括不动产和设备(有形资产)或技术、软件、商标、专利等(无形资产)。

电力受限的“空壳”数据中心:指物理建筑(“空壳”)已建成,但用于运行信息技术设备的电力受限或部分不可用的数据中心设施。

CPU:中央处理单元,作为控制中心,通过解释、处理和执行来自硬件和软件程序的指令来运行机器的操作系统和应用程序。

DPU:数据处理单元,是一种专用处理器,用于将网络、存储与安全任务从CPU卸载。DPU能够将现代数据中心的数据传输和基础设施服务提速,从而提升效率和可扩展性,这对于运行现代人工智能工作负载至关重要。 

整机架解决方案:指在数据中心租用或购买一整机架的服务器设备及相关服务。

全栈解决方案: 指一种全面的软件开发方法,涵盖应用程序或项目的所有层次,包括前端及后端组件,以及应用程序完全运行所需的任何其他层次组件。

GPU: 执行图形渲染(graphics rendering)所需的复杂数学和几何计算的图形处理器,亦被用于游戏、内容创作及机器学习。

低延迟词元生成能力:生成式人工智能模型(大语言模型)在收到提示后,生成每个连续输出单元(“词元”)的速度。

LPU(语言处理单元):Groq专有的专业性芯片,专为满足大语言模型对速度和内存的独特需求而设计。

开源软件:就查看、修改和分发而言,设计为可公开访问的代码。

ROI(投资回报率):用来衡量投资业绩的财务比率,计算方法是将净利润/亏损除以投资的初始成本。

SaaS (软件即服务):一种基于云的软件交付模式,应用程序通过互联网访问,云服务提供商负责基础设施、安全和更新。应用程序运行在软件提供商的服务器上。

任何对个别公司的参考,仅供说明用途,并不构成买入或卖出投资建议,法律或税务事项的忠告。