• 最新
  • 热门
  • 所有
  • 期货市场
  • 外汇动态
  • 股票行情
黄仁勋最新访谈:AI泡沫?不存在的

黄仁勋最新访谈:AI 泡沫?不存在的

2025 年 9 月 29 日
第19届杭州亚运会纪念币金银套多少钱(2025年9月4日)

郑州商品交易所:关于调整红枣期货替代交割品升贴水的公告

2025 年 9 月 29 日
美国煤炭巨头皮博迪豪言:特朗普时代下煤炭需求将飙升五成

哈马斯:加沙地带停火谈判已暂停

2025 年 9 月 29 日
受贿2.68亿余元 农业农村部原部长唐仁健一审被判死缓

受贿 2.68 亿余元 农业农村部原部长唐仁健一审被判死缓

2025 年 9 月 29 日
菜籽油期货收盘下跌0.49% 持仓较上日减持1856手

金至尊铂金多少钱一克 (2025 年 09 月 26 日) 参考价格

2025 年 9 月 29 日
扶了王健林一把的男人,千万股权被冻结

是东北振兴,更是东北真行

2025 年 9 月 29 日
隆基绿能:主业盈亏平衡时间点推迟到Q4  提高BC二代产品是主要目标|直击业绩会

铁矿石期货交易怎么开通权限

2025 年 9 月 29 日
第19届杭州亚运会纪念币金银套多少钱(2025年9月4日)

周生生黄金价格今天多少一克 (2025 年 09 月 26 日)

2025 年 9 月 29 日
【环球财经】多元突围与韧性生长——科特迪瓦经济转型的密码

【环球财经】 欧美强搞制裁 伊朗如何应对

2025 年 9 月 29 日
全球钣金机械市场站上需求风口 厂商反馈:高端工业母机增量弹性大|直击2025工博会

全球钣金机械市场站上需求风口 厂商反馈:高端工业母机增量弹性大|直击 2025 工博会

2025 年 9 月 29 日
20cm速递|上能电气20CM涨停,创业板新能源ETF华夏(159368)上涨3.58%

聚酯产业:期现结合打开破局新路径

2025 年 9 月 29 日
相关技术突破不断 机构称脑机接口市场前景可期

周生生铂金多少钱一克 (2025 年 09 月 26 日) 参考价格

2025 年 9 月 29 日
恒生科技ETF易方达(513010)近一周「吸金」超10亿元,机构称港股在估值上具备充分吸引力

下游采买减弱 沪锌短期或延续低位盘整

2025 年 9 月 29 日
禾湖财经
  • 登录
  • 首页
  • 24 小时
  • 行业新闻
  • 股票行情
  • 基金快讯
  • 期货市场
  • 禾湖观察
  • 期货研报
  • 国际金融
  • 外汇动态
  • 贵金属
2025 年 9 月 29 日 星期一
没有结果
查看所有结果
  • 首页
  • 24 小时
  • 行业新闻
  • 股票行情
  • 基金快讯
  • 期货市场
  • 禾湖观察
  • 期货研报
  • 国际金融
  • 外汇动态
  • 贵金属
没有结果
查看所有结果
禾湖财经
没有结果
查看所有结果
首页 行业新闻

黄仁勋最新访谈:AI 泡沫?不存在的

2 小时 之前
在 行业新闻
阅读时间: 8 mins read
0 0
A A
黄仁勋最新访谈:AI泡沫?不存在的

猜您喜欢

普京:俄将对等实施对华免签政策

三星的相机困局

2 周 之前
0
外卖混战中的宿迁餐饮业:泡沫是如何破灭的

外卖混战中的宿迁餐饮业:泡沫是如何破灭的

1 月 之前
0


近期,英伟达 (NVDA.US)投资 「出手」 频繁,先是宣布 50 亿美元投资英特尔,随后斥资至多 1000 亿美元投资 OpenAI,而受此前 OpenAI 与甲骨文的合作,市场均在股价层面给予了积极反馈。

但市场也出现了质疑声音——称英伟达、OpenAI 与甲骨文存在 「收入循环」,财务数字 「操作」 大于实际营收。

9 月 25 日,在播客 BG2 最新一期节目中,BG2 主播、Altimeter Capital 创始人 Brad Gerstner,Altimeter Capital 合伙人 Clark Tang 与英伟达 CEO 黄仁勋展开了一次对话。黄仁勋在对话中回应了当下市场关心的问题。

黄仁勋认为,投资 OpenAI 实际上是一个很好的机会,并认为 OpenAI 将是下一家数万亿美元级别的 Hyperscaler。

此外,黄仁勋也特别解释了为什么 ASIC 芯片并不完全和英伟达 GPU 是竞争关系——因为英伟达是 AI 基础设施提供商,其提供的能力范围已经不仅仅是硬件和软件层面,也包括其不断迭代的速度、规模优势带来的可靠性,以及整体能源效率等综合因素。

因此,黄仁勋认为英伟达目前的护城河比三年前 「更宽」,而 Brad Gerstner 甚至认为,英伟达将是史上第一家达到十万亿美元的公司。

以下为 「明亮公司」 编译的访谈正文 (有删节):

Brad Gerstner:Jensen,再次欢迎你。你的红色眼镜很好看,真的很适合你。距离上次上播客,已过去一年多。你们如今超过 40% 的收入来自推理 (inference),而且推理正因为 chain of reasoning 链式推理而要起飞了。

黄仁勋:大多数人还没真正内化这一点,这其实就是一场工业革命。

一、投资 OpenAI 不是合作的前提,是因为有机会能投

Brad Gerstner:说真的,从那次之后,感觉你我每天都像在验证那期播客。在 AI 的时间尺度上,这一年像过了一百年。我最近重看了那期,很多观点让我印象深刻。

最打动我的是你当时拍着桌子说——当时大家觉得预训练进入低潮 (pre-training),很多人说预训练要完蛋了,硬件建设过度。那是大约一年半前。你说推理不会只是一百倍、一千倍。会是十亿倍。这把我们带到今天。你刚宣布了一项巨大合作,我们应该从这里聊起。

黄仁勋:我想正式说下,我认为我们现在有三条 Scaling Law。第一是预训练的 Scaling Law。第二是后训练 (post-training)的 Scaling Law。后训练基本上就是让 AI 练习一种技能,直到做对,它会尝试很多不同方法。要做到这一点,就必须进行推理 (inference)。所以训练与推理如今以强化学习的方式整合在一起,非常复杂,这就是后训练。

第三是推理 (inference)。过去的推理是 「一次出手」,而我们现在理解的新推理,是 「先思考再作答」。先想,再回答,想得越久,答案质量越高。思考过程中你会检索、查证事实、学到东西,再继续思考、继续学习,最后输出答案,而不是上来就生成。所以思考、后训练、预训练,如今我们有三条 Scaling Law,而不是一条。

Brad Gerstner:这些你去年就提过,但你今年说 「推理会提升十亿倍,并由此带来更高水平智能」 的信心更高了吗?

黄仁勋:我今年更有把握。原因是看看如今的智能体系统。AI 不再是单一语言模型,而是由多个语言模型组成的系统,它们并发运行。有的在用工具,有的在做检索,事情非常多,而且是多模态。看看生成的视频,简直令人难以置信。

Brad Gerstner:这也引到本周的关键时刻,大家都在谈你们与 OpenAI 的重磅合作 Stargate。你们将成为首选合作伙伴,并在一段时间内向公司投资 1000 亿美元。他们会建 10 个 「gig「(Gigawatt,吉瓦)。如果这 10 个 「gig」 都用英伟达,那对你们的收入贡献可能高达 4000 亿美元。帮我们理解一下这个合作,对你意味着什么?以及为何这项投资是合理的?

黄仁勋:我先回答后一个问题,再回到我的叙述。我认为 OpenAI 很可能成为下一家数万亿美元级的 hyperscale 公司。

就像 Meta 是 hyperscale,Google 也是,他们会同时拥有 C 端与企业服务。他们非常可能成为下一家多数万亿美元级的 hyperscale 公司。如果是这样,能在他们达到那个规模之前投资进去,是我们能想象到的最聪明的投资之一。你必须投资你熟悉的东西,恰好我们熟悉这个领域。所以这笔钱的回报会非常出色。

我们很乐意投资,但不是必须的,也不是合作的前提;是他们给了投资机会,这太好了。

我们与 OpenAI 在多个项目上合作。第一,Microsoft Azure 的建设,我们会持续推进,这个合作进展非常顺利,未来还有数年的建设;第二,OCI(Oracle Cloud Infrastructure)的建设,我想大概有 5-7 个 GW 要建。我们与 OCI、OpenAI、软银一道推进。这些项目都已签约,正在实施,工作量很大。第三是 CoreWeave。所有与 CoreWeave 相关的……我还在讲 OpenAI,对,一切都在 OpenAI 语境里。

所以问题是,这个新伙伴关系是什么?它是帮助 OpenAI 首次自建 AI 基础设施。也就是我们直接与 OpenAI 在芯片、软件、系统、AI 工厂层面协作,帮助他们成为一家完全自运营的 hyperscale 公司。这会持续相当一段时间,是对他们现有建设的补充。

他们正经历两个指数曲线:第一个指数是客户数量在指数级增长,因为 AI 在变好、用例在变好,几乎每个应用现在都连到 OpenAI,所以他们正经历使用指数;

第二个指数是计算量的指数增长。每个使用场景的算力在暴涨。过去是一键式推理,现在要先思考再回答。这两个指数叠加,大幅抬升了计算需求。我们会推进所有这些建设。因而这个新合作是对既有所有合作的 「增量」,去支撑这股惊人的指数增长。

Brad Gerstner:你刚说到一个很有意思的点,你认为他们极大概率会成为数万亿美元公司,是很好的投资;同时你们还在帮助他们自建数据中心。过去他们把数据中心外包给微软,现在他们要自建 「全栈工厂」,就像 Elon 和 X 那样,对吧?

Brad Gerstner:想想 Colossus 的优势,他们构建全栈,就是 hyperscaler,即便自己用不完容量,也能卖给别人。同样的,Stargate 在建设海量容量,他们觉得会用掉大部分,但也能售卖出去。这听起来很像 AWS、GCP(谷歌云)或 Azure,是这意思吗?

黄仁勋:我认为他们很可能自己用掉,就像 X 大多会自用。但他们希望与我们建立直接关系——直接工程协作和直接采购关系。就像 Zuck、Meta 与我们之间的直接关系。我们与 Sundar 和 Google 的直接关系,我们与 Satya 和 Azure 的直接伙伴关系。他们规模足够大了,认为该建立这些直接关系了。我很乐意支持,而且 Satya(微软 CEO)知道,Larry(谷歌联合创始人)知道,大家都知道。

二、华尔街与英伟达之间预期背离:如何理解 AI 的需求规模

Brad Gerstner:这儿有件事我觉得颇为神秘。你刚提到 Oracle 3000 亿、Colossus 的建设,我们知道一些主权国家在建 (AI 基础设施),hyperscaler 也在建。Sam 正以万亿美元的口吻来谈这一切。可覆盖你们股票的华尔街 25 位卖方分析师的共识却显示,你们从 2027 年开始增长放缓,预计 2027-2030 年年化增速 8%。这些人的唯一工作就是给英伟达做增长预测。显然……

黄仁勋:我们对此很坦然。看,我们经常能轻松超预期。

英伟达数据中心营收的增长预期 (来源:BG2)

Brad Gerstner:我明白。但这仍是个有趣的 「背离」。我每天都在 CNBC、彭博上听到。很多人担心短缺会转向过剩,他们不相信持续高增长。他们说,行,我们姑且信你们的 2026 年,但 2027 年可能供给过剩、不再需要那么多。但共识预测其实显示这不会发生。我们也做了自己的预测,纳入了所有这些数字。

结果是,即便进入 「AI 时代」 两年半,各方的信念仍然分歧巨大,Sam Altman、你、Sundar、Satya 的看法,与华尔街仍然相信的相去甚远。对此,你依旧感到从容吗?

黄仁勋:我也不认为这不一致。首先,我们这些 「建设者」 应该为 「机会」 而建。我们是建设者。让我给你三个思考点,有助于你对英伟达的未来更放心。

第一点,是物理定律层面的、最关键的一点,通用计算已到尽头,未来属于加速计算与 AI 计算。这是第一点。

你可以这样想:全球有多少万亿美元的计算基础设施要被更新换代。所以首先你得认识到通用计算的终结。没人反对这一点。摩尔定律已死,人们常这么说。那么这意味着什么?通用计算会转向加速计算。我们与 Intel 的合作就是在承认通用计算需要与加速计算融合,为他们创造新机会。通用计算正迁移到加速计算与 AI。

第二点,AI 的首要用例其实已无处不在——在搜索、在推荐引擎等等。基础的 hyperscale 计算基础设施过去由 CPU 执行推荐,如今要由 GPU 执行 AI。你把传统计算换成加速计算与 AI;你把 hyperscale 计算从 CPU 换到加速计算与 AI。这是第二点。仅仅满足 Meta、Google、字节跳动、Amazon,把它们传统的 hyperscale 方式搬到 AI,就是数千亿美元的市场。

所以,哪怕先不谈 AI 创造新机会,仅仅是 AI 改变了旧做法到新做法。然后再谈未来。是的,到目前为止我其实只谈了 「平凡」 的事。旧方式不对了。你不会再用煤油灯,而要用电。这就够了。

然后是更不可思议的,当你走向 AI、走向加速计算,会出现什么新应用?就是我们在谈的所有 AI 相关,机会巨大。怎么理解?简单想想,过去电机替代了体力劳动;现在我们有 AI——我称之为 AI 超级计算机、AI 工厂——它们会生成 tokens 来增强人类智能。而人类智能占全球 GDP 的 55%-65%……我们就算 50 万亿美元吧,这 50 万亿将被某种东西增强。

回到个人层面,假如我雇一位工资 10 万美元的员工,再给 TA 配一个 1 万美元的 AI,如果这个 AI 让那位员工产能翻倍、三倍?我会不会做。一定会做。我现在就在给公司里每个人配,没错,每位协作智能体 (co-agents)、每位软件工程师、每位芯片设计师都已有 AI 与其协作智能体,覆盖率 100%。

结果是我们做的芯片更好,数量在增长,推进速度更快。公司因此增长更快、招聘更多、生产率更高、营收更高。利润更高。现在把英伟达的故事套到全球 GDP 上,很可能发生的是,这 50 万亿会被……我们取个数,10 万亿美元所增强。而这 10 万亿需要跑在一台机器上。

AI 与过去 IT 的不同在于,过去软件是事先写好,跑在 CPU 上,不怎么自己 「动」。未来,AI 要生成 tokens,而机器要生成这些 tokens、它 「在思考」,所以软件一直在运行;过去是一次性编写,现在是持续编写、持续思考。要让 AI 思考,就需要工厂。假设这 10 万亿 token 的毛利率是 50%,其中 5 万亿需要工厂、需要 AI 基础设施。

所以如果你告诉我全球每年的资本开支大概是 5 万亿美元,我会说这个数看起来说得通。这大概就是未来的轮廓——从通用计算到加速计算;把所有 hyperscale 都换成 AI;然后用 AI 去增强人类智能,覆盖全球经济。

Clark Tang:以今天而言,我们估算年市场规模大约 4000 亿美元,所以 TAM 从现在到目标是四到五倍的提升。

黄仁勋:没错。昨晚 (北京时间 9 月 24 日)阿里巴巴的吴泳铭 (Eddie Wu)说,从现在到 20 年代末,他们要把数据中心电力 (消耗)提升十倍。对吧?你刚才说四倍?这就对上了。他们要把电力提升十倍,而我们的收入与电力几乎是正相关。(注:吴泳铭表示,对比 2022 年 GenAI 元年,到 2032 年阿里云全球数据中心能耗规模将提升 10 倍)他还说 token 生成量每几个月就翻倍。

这意味着什么?单位能耗性能 (perf per watt)必须指数级提升。这就是为什么英伟达要疯狂推进单位能耗性能提升,而单位能耗收入 (revenue per watt)基本就是收入。

Brad Gerstner:在这个未来里,有个假设从历史角度看我觉得很迷人。两千年里,全球 GDP 基本不增长。然后工业革命来了,GDP 加速;接着数字革命,GDP 又加速。你现在的意思和 Scott Bessent(美国现任财长)说的一样——他认为明年全球 GDP 增长会到 4%。你其实是在说全球 GDP 增速将加快,因为我们正在给世界提供 「数十亿同事」 来为我们工作。而如果 GDP 是在既定劳动与资本下的产出,那么它必须……

黄仁勋:一定会增长。看看 AI 正在发生的事,AI 的技术形态、可用性,诸如大语言模型与 AI 智能体,都在推动一个新的 「智能体行业」。这点毫无疑问。OpenAI 就是历史上收入增长最快的公司,他们在指数级增长。所以 AI 本身是个高速增长的行业,因为 AI 需要背后的工厂与基础设施,这个行业在增长,我的行业也在增长;而因为我的行业在增长,在我们之下的行业也在增长——能源在增长、电力与厂房在增长。这简直是能源产业的复兴。核能、燃气轮机……看看我们生态之下的那些基础设施公司,他们做得很棒,大家都在增长。

Brad Gerstne:这些数字让大家都在谈是否会 「供给过剩」 或 「泡沫」。Zuckerberg 上周在一个播客说了,可能会有短期的 「气阱」(Airpocket),Meta 可能会多花个 100 亿美元之类的。但他说,这不重要。对他业务的未来而言太关键了,这是必须承担的风险。但从博弈角度看,这有点像 「囚徒困境」。

黄仁勋:开心的囚徒。

Brad Gerstner:再捋一遍。今天我们估算到 2026 年,会有 1000 亿美元的 AI 收入,不含 Meta,也不含跑推荐引擎的 GPU 还有搜索等其他工作负载,我们就先算 1000 亿。

黄仁勋:但 hyperscale 行业本身到底有多大?这个行业现在的基数是多少?

Brad Gerstner:以万亿美元计。

黄仁勋:对。这个行业会先部署 AI,不是从零起步,你得从这里开始。

Brad Gerstner:不过怀疑者会说,我们必须从 2026 年的 1000 亿,长到 2030 年至少 1 万亿的 AI 收入。你刚才还谈到 5 万亿。从全球 GDP 的自下而上推演看,你能看到从 1000 亿到 1 万亿在未来五年实现吗?

黄仁勋:能,而且我会说我们其实已经到了。因为 Hyperscalers 已经把 CPU 迁到 AI,他们的整个收入基座如今都由 AI 驱动。

Brad Gerstner:是的。

黄仁勋:没有 AI 就没有 TikTok,对吧?没有 AI 就没有 YouTube Shorts。Meta 做的为你定制、个性化的内容,没有 AI 就做不到。以前那些事情,靠人类事先创作、提供几个选项,再由推荐引擎挑选。现在是 AI 生成无限多的选项。

Brad Gerstner:这些转变已经发生:我们从 CPU 迁到 GPU,主要是为了那些推荐引擎。

黄仁勋:对。Zuck 会告诉你,我在 SIGGRAPH 时他也说过,他们其实到得有点晚。Meta 用 GPU 也就一年半、两年的事。搜索上用 GPU 更是崭新的、刚刚开始的。

Brad Gerstner:所以论证是,到 2030 年我们有 1 万亿 AI 收入的概率几乎确定,因为我们几乎已经达到了。

接着我们只谈 「增量」。不管你做自下而上还是自上而下,我刚听了你按全球 GDP 占比的自上而下的分析。那你觉得,未来三到五年内,出现 「供给过剩 (glut)」 的概率有多大?

黄仁勋:在我们把所有通用计算彻底转换为加速计算与 AI 之前,我认为出现过剩的概率极低。

Brad Gerstner:会花几年?

黄仁勋:直到所有推荐引擎都基于 AI,直到所有内容生成都基于 AI。因为面向消费者的内容生成很大程度就是推荐系统之上的,所以所有这些都会转向 AI 生成。直到传统意义上的 hyperscale 全部迁到 AI,从购物到电商等一切都迁过去。

Brad Gerstner:但所有这些新建项目,我们谈的是 「万亿级」,总是提前投资。那如果你们看到了放缓或过剩,是不是还 「不得不」 把钱投进去?还是说,一旦看到放缓迹象,再随时收缩?

黄仁勋:实际上正相反,因为我们在供给链的末端,我们按需响应。现在,所有 VC 都会告诉你——你们也知道——全球短缺的是 「计算」,不是 GPU 的数量短缺。只要给我订单,我就造。过去两年我们把整个供应链都打通了,从晶圆启动、到封装、到 HBM 内存等等,我们都加足了马力。需要翻倍,我们就翻倍,供应链已备好。我们现在等的是需求信号。当云服务商、hyperscaler 和客户做年度计划给我们预测时,我们就响应,并按那个预测去建。

问题是,他们每次给我们的预测都会错,因为预测都偏低。于是我们总处于 「紧急追赶」 模式,已经持续了好几年,每一轮预测都比上一年显著上调。

Brad Gerstner:但还不够。比如去年,Satya 看起来稍微收敛了一点,有人说他像房间里那个 「更稳重的成年人」,压一压预期。但几周前他又说,我们今年也建了两个 「gig」,未来还会加速。你是否看到那些传统 hyperscalers——相较于 Core Weave 或 Elon 的 X,或者相较于 StarGate——此前略慢一些的,现在都在加倍投入,而且……

黄仁勋:因为第二条指数来了。我们已经有一条指数在增长,AI 的应用和渗透率指数级增长。第二条指数是 「推理与思考」,这就是我们一年前讨论的。我当时说,一旦你把 AI 从 「一次性出手、记忆并泛化」 推进到 「推理、检索与用工具」,AI 就在思考,它会用更多算力。

Clark Tang:回到你刚才的点,hyperscale 客户无论如何都需要把内部工作负载从通用计算迁到加速计算,他们会穿越周期持续建设。我想部分 hyperscalers 的负载结构不同,不确定消化速度,现在大家都认定自己严重低配了。

黄仁勋:我最喜欢的应用之一就是传统的数据处理,即结构化与非结构化数据处理。很快我们会宣布一个关于 「加速数据处理」 的重大计划。

数据处理占据了当今世界绝大多数 CPU,它仍然完全跑在 CPU 上。去 Databricks,大多是 CPU;去 Snowflake,大多是 CPU;Oracle 的 SQL 处理,大多是 CPU。

大家都在用 CPU 做 SQL/结构化数据。未来,这一切都会迁到 AI 数据。这是一个极其庞大的市场,我们会推进过去。但你需要英伟达的全部能力——加速层与领域专用的 「配方」。数据处理层的 「配方」 需要我们去构建,但它要来了。

三、「循环营收」 质疑:投资机会不绑定任何条件

Brad Gerstner:还有一个质疑点。昨天我打开 CNBC,他们说的是 「过剩、泡沫」。换到彭博,是 「循环交易与循环营收 (round-tripping、circular revenues)」。给在家观看的观众解释下,这指公司之间缔结看似交易、实则缺乏真实经济实质的安排,人为抬高营收。

换言之,增长不是来自真实的客户需求,而是财务数字上。所以当你们、微软或亚马逊投资那些同时也是你们大客户的公司时,比如你们投资 OpenAI,而 OpenAI 又购买数百亿美元的芯片。

请提醒我们、也提醒大家:当彭博等媒体分析师拿 「循环营收」 大做文章时,他们到底误解了什么?

黄仁勋:建 10GW 的 (数据中心)规模大概就是 4000 亿美元左右吧。那 4000 亿主要由他们的 offtake(消纳能力/下游需求)来支撑,它在指数增长。

(支出)这得由他们自有资本、股权融资和可获得的债务来支持,这是三种工具。能融到多少股权与债务,取决于他们对未来收入的把握程度。精明的投资人与授信人会综合权衡这些因素。这是他们公司的事,不是我的。

我们当然要和他们紧密合作,以确保我们的建设能支持他们持续增长,但收入端与投资端无关。投资机会不是绑定任何条件的,是一个纯投资机会。正如前面说的,这家公司很可能成为下一家多万亿美元级的 hyperscale 公司。谁不想持有它的股权?我唯一的遗憾是,他们早年就邀请我们投资,当时我们太 「穷」 了,投得不够,真该把所有钱都投进去。

Brad Gerstner:而现实是,如果你们不把本职工作做到位,比如 Vera Rubin 最终不成好芯片,他们也可以去买别家的。对吧?他们没有义务必须用你们的芯片。正如你说的,你们看待这件事是机会性的股权投资。

黄仁勋:我们投了 xAI、投了 CoreWeave,这都是很棒的投资。

Brad Gerstne:回到 「循环营收」 的讨论,还有一个根本点是,你们把一切都摆在台面上,告诉大家你们在做什么。而其背后的经济实质是什么?并不是双方互相倒腾营收。我们看到有用户每月为 ChatGPT 付费,有 15 亿月活在用这个产品。你刚说世界上每家企业要么拥抱这一切,要么被淘汰。每个主权国家都把这视为其国防与经济安全的 「生死攸关」,就像核能一样。

黄仁勋:问问看,有哪一个人、公司、国家会说 「智能」 对我们是可选项?没有。这就是基础。关键在于 「智能的自动化」。

四、摩尔定律已死,现在需要极致的软硬件协同设计

Brad Gerstner:需求问题我问得够多了,我们聊系统设计。我接下来会把话题递给 Clark。2024 年你们切换到了年度发布节奏,对吧?

Hopper 之后,2025 年的 Grace Blackwell 是一次巨大升级,需要数据中心进行重大改造。26 年下半年会有 Vera Rubin,27 年有 Rubin Ultra,28 年有 Feynman。年度发布节奏进行得如何?为什么要改为年度发布?英伟达内部的 AI 是否让你们能落实年度发布?

英伟达未来芯片架构的发展脉络 (来源:BG2)

黄仁勋:是的,答案是肯定的。没有它,英伟达的速度、节奏和规模都会受限。现在没有 AI,根本不可能建出我们如今的产品。为什么这么做?记得 Eddie(吴泳铭)在财报或大会上说过、Satya 说过、Sam 也说过……token 生成速率在指数级上升,用户使用在指数级上升。我记得 OpenAI 说周活跃用户有 8 亿左右,对吧?从 ChatGPT 推出才两年。

Brad Gerstner:而且这些用户的每次使用都在生成更多 token,因为他们在使用 「推理时思考」(inference-time reasoning)。

黄仁勋:没错。所以第一点是:在两个指数叠加的情况下,除非我们以不可思议的速度提升性能,否则 token 生成成本会持续上升。

因为摩尔定律已死,晶体管的单位成本每年几乎不变,电力也大致不变。在这两条 「定律」 约束下,除非我们发明新技术降成本,否则即便给对方打个几个百分点的折扣,也无法抵消两个指数增长的压力。因此我们必须每年以跟上这个指数的节奏去提升性能。

比如从 Kepler(注:2012 年 4 月发布)一路到 Hopper(注:2022 年 3 月发布),大概实现了 100000 的提升。那是英伟达 AI 旅程的开端,十年十万倍。Hopper 到 Blackwell,因为 NVLink 等,我们在一年内实现了 30×的系统级提升;接下来 Rubin 还会再来一波 「x」(数倍),Feynman 再一波 「×」……

之所以能做到,是因为晶体管本身帮不上太多忙了。摩尔定律基本只剩密度在涨,性能没有相应提升。所以我们必须把问题在系统层面完全拆开,所有芯片同步升级,软件栈与系统同步升级,这是极致的 「协同设计 (co-design)」。

以前没人做到这个层级。我们同时改变 CPU、重塑 CPU,与 GPU、网络芯片、NVLink 纵向扩展、Spectrum-X 横向扩展。当然还要去构建更大的系统,在多个 AI 工厂之间做跨域互联。并且以年度节奏推进。所以我们自身也在技术上形成了 「指数叠指数」。这让客户能持续拉低 token 成本,同时通过预训练、后训练与 「思考」 让 token 更聪明。AI 变聪明,使用就更多,使用更多就指数增长。

Brad Gerstner:极致的协同设计是什么?

黄仁勋:极致协同设计,意味着你要同时优化模型、算法、系统与芯片。

当摩尔定律还能推动时,只要让 CPU 更快,一切都会更快。那是在 「盒子里」 创新,只需把那颗芯片做快。但如果芯片不再变快,你怎么办?就要跳出原有框架来创新。

英伟达改变了行业,因为我们做了两件事——发明了 CUDA、发明了 GPU,并把大规模协同设计的理念落地。

这就是为什么我们覆盖这么多行业。我们在构建大量库与协同设计。第一,全栈的极致不仅在软件与 GPU,还延伸到数据中心层面的交换与网络,以及它们内部的所有软件:交换机、网络接口、纵向扩展与横向扩展,跨全部层面优化。其结果就是 Blackwell 对 Hopper 的 30×提升。摩尔定律根本做不到,这是极致协同设计的成果。

英伟达全部技术栈 (来源:BG2)

Brad Gerstner:这些都源自极致协同设计。

黄仁勋:是的,这就是为什么我们要做网络、做交换、做纵向/横向/跨域扩展,做 CPU、做 GPU、做 NIC。也是为什么英伟达的软件如此丰富。我们在开源软件上的贡献提交量,全球能比的没几家。而且这还只是 AI 领域。别忘了我们在计算机图形、数字生物学、自动驾驶等。我们产出的软件规模极其可观,这让我们能做深度且极致的协同设计。

Brad Gerstner:我从你一位竞争对手那里听说,你们这么做能降低 token 生成成本。但与此同时,你们的年度发布节奏让竞争者几乎很难跟上。因为你们给供应链三年的可见性,供应链锁定更深,心里有底该供到什么规模。

黄仁勋:你不妨这样想:要让我们一年做几千亿美元级的 AI 基础设施建设想想我们在一年前就必须提前预备多少产能。我们说的是数千亿美元级的晶圆启动量、DRAM 采购量。这个规模,几乎没有公司能承接。

五、英伟达的护城河为什么更宽了:如何看 ASIC 的竞争力

Brad Gerstner:你们今天的护城河比三年前更宽了吗?

黄仁勋:是的。

首先,竞争者比以往更多,但难度也比以往更大。因为晶圆成本在上升。除非你在极致规模上做协同设计,否则你交不出那个 「数倍」 级的增长,这是第一点。所以,除非你一年同时做 6-8 颗芯片,否则不行。重点不是做一颗 ASIC,而是构建一座 AI 工厂系统。这座系统里有很多芯片,它们都协同设计。它们共同交付我们几乎固定节奏能拿到的那个 「10×」。

所以第一,协同设计必须极致。第二,规模必须极致。当你的客户部署 1 个 GW,那就是四五十万颗 GPU,要让 50 万颗 GPU 协同工作,这就是个奇迹。

所以客户是在承担巨大的风险来购买这些。你得想,有哪个客户会在一个架构上下 500 亿美元的采购订单?一个全新的、未经大规模验证的架构?

你再兴奋、大家再为你喝彩,当你刚刚展示第一个硅片的时候,会有谁给你 500 亿美元的订单?你又为何敢在一颗刚刚流片的芯片上启动 500 亿美元的晶圆?但对英伟达来说,我们敢,因为我们的架构高度成熟与积累的信用。其二,我们客户的规模极其惊人。再者,我们供应链的规模也极其惊人。谁会替一家企业去提前启动这些、预构建这么多,除非他们确信英伟达能把它交付到底?对吧?他们相信我们能交付到全球所有客户手里,愿意一次性启动数千亿美元的供应。

这就是 「规模」 的故事。

Clark Tang:顺着这个点,全球一个最大的争论是 「GPU vs ASIC」,比如 Google 的 TPU、Amazon 的 Trainium。Arm 到 OpenAI、Anthropic 在传出自研……你去年说过我们构建的是 「系统」,不是 「芯片」,而你们在堆栈的每一层都驱动性能提升。你还说过这些项目里很多可能永远到不了生产规模,事实上…大多数都到不了。在 TPU 看似成功的前提下,你今天如何看这片正在演进的版图?

黄仁勋:Google 的优势在 「前瞻」。

记得他们在一切开始之前就做了 TPU v1。这跟创业没区别。你应当在市场尚未做大之前去创业,而不是等市场涨到万亿级再来。所有 VC 都懂一个谬误:市场很大,只要拿到几个百分点就能做成大公司。这是错的。你该在一个很小的领域拿到 「几乎全部份额」,这就是英伟达当年做的,也是 TPU 当年做的。

所以今天那些做 ASIC 的人的挑战在于:市场看起来很 「肥」,但别忘了,这个 「肥市场」 已经从一颗叫 GPU 的芯片,演化为我刚描述的 「AI 工厂」。

你们刚看到我宣布了 CPX(注:Rubin CPX GPU,英伟达专为长语境推理设计的芯片),这是一颗用于 「上下文处理与扩散式视频生成」 的芯片,是很专门但很重要的数据中心负载。我刚才也暗示,也许会有 「AI 数据处理」 处理器。因为你需要 「长期记忆」 和 「短期记忆」。KVCache 的处理非常重,AI 记忆是大事。你希望你的 AI 有好记忆。围绕整个系统处理 KVCache 非常复杂,也许它也需要一颗专属处理器。

你可以看到,英伟达今天的视角,是俯瞰全体 AI 基础设施——这些了不起的公司要如何让多元且变动的工作负载流经系统?看看 Transformers,这个架构在快速演化。若非 CUDA 如此好用、易于迭代,他们要如何进行如此海量的实验,来决定采用哪种 Transformer 变体、哪类注意力算法?如何去做 「解耦/重构 (disaggregate)」?CUDA 之所以能帮你做这一切,是因为它 「高度可编程」。

所以看我们的业务,你得回到三五年前那些 ASIC 项目启动之时,那会儿的行业 「可爱而简单」,只有 GPU。一两年后,它已巨大且复杂;再过两年,它的规模会非常之大。所以,作为后来者要杀入一个巨量市场,这仗很难打。

Clark Tang:即便那些客户在 ASIC 上成功了,他们的算力机队里也应该有个 「优化配比」,对吧?我觉得投资人喜欢非黑即白,但其实即便 ASIC 成功了,也要有个平衡。会有很多不同的芯片或部件加入英伟达的加速计算生态,以适配新生的负载。

Brad Gerstner:换句话说,Google 也是你们的大客户。

黄仁勋:Google 是我们的大 GPU 客户。Google 很特殊,我们必须给予尊重。TPU 已经迭代到 v7 了,对吧?这对他们也是极大挑战。他们做的事情极难。

所以我想先理顺一下芯片的分类。一类是 「架构型」 芯片:x86CPU、ArmCPU、英伟达 GPU,属于架构级,有丰富的 IP 与生态,技术很复杂,由架构的拥有者构建。

另一个是 ASIC,我曾就职于发明 ASIC 概念的公司 LSI Logic。你也知道,LSI 早已不在。原因在于,当市场规模不太大时,ASIC 很棒,找一家代工/设计服务公司帮你封装整合并代工生产,他们会收你 50-60 个点的毛利。

但当 ASIC 面向的市场变大后,会出现一种新方式叫 COT(Customer-Owned Tooling,客户自有工具),谁会这么做?比如 Apple 的手机芯片,量级太大,他们绝不会去付给别人 50%-60% 的毛利做 ASIC,他们会自己掌握工具。

所以,当 TPU 变为一门大生意时,它也会走向 COT,这毫无疑问。话说回来,ASIC 有它的位置——视频转码器的市场永远不会太大;智能网卡 (Smart NIC)的市场也不会太大。

所以当你看到一家 ASIC 公司有十来个甚至十五个 ASIC 项目时,我并不惊讶,因为可能其中五个是 Smart NIC、四个是转码器。它们都是 AI 芯片吗?当然不是。如果有人做一颗为某个特定推荐系统定制的处理器,做成 ASIC,当然也可以。但你会用 ASIC 来做那颗 「基础计算引擎」 吗?要知道 AI 的工作负载变化极快。有低延迟负载,有高吞吐负载;有聊天 token 生成,有 「思考」 负载,有 AI 视频生成负载,现在你在谈的是……

Clark Tang:算力机群的 「主力骨干」。

黄仁勋:这才是英伟达的定位。

Brad Gerstner:再通俗点讲,就像 「象棋 vs 跳棋」。那些今天做 ASIC 的人,不管是 Trainium 还是别的某些加速器,本质是在造一颗 「更大机器中的一个部件」。

而你们造的是一个 「非常复杂的系统、平台、工厂」,现在你们又开始做一定程度上的 「开放」。你提到了 CPX GPU,在某种意义上,你们在把工作负载 「拆分」 到最适合它的硬件切片上。

黄仁勋:没错。我们发布了一个叫 「Dynamo」 的东西——解耦后 AI 负载编排 (disaggregated orchestration),而且开源了它,因为未来的 AI 工厂就是解耦的。

Brad Gerstner:你们还发布了 NVLink Fusion,甚至对竞争对手开放,包括你们刚刚投资的 Intel,这就是让他们也能接入你们正在建的工厂——没人疯狂到要独自建完整工厂。但如果他们有足够好的产品、足够有吸引力,终端客户说我们想用这个替代某个 Arm GPU,或者替代你们的某个推理加速器等,他们就可以插进来。

黄仁勋:我们非常乐意把这些接上。NV Fusion 是个很棒的主意,我们也很高兴与 Intel 合作——它把 Intel 的生态带进来,全球大多数企业工作负载仍跑在 Intel 上。它融合了 Intel 生态与英伟达的 AI 生态与加速计算。我们也会与 Arm 做同样的融合。之后还会与更多人做。这为双方都打开了机会,是双赢、非常大的双赢。我会成为他们的大客户,他们也会把我们带到更大的市场机会前。

Brad Gerstner:与此紧密相关的,是你提出一个让人震惊的观点:就算竞争者造的 ASIC 芯片今天已经更便宜,甚至就算他们把价格降到零,也依然会买英伟达的系统。因为一个系统的总运营成本——电力、数据中心、土地等——以及 「智能产出」,选择你们仍然更划算,即使对方的芯片白送。

Blackwell 和 ASIC 成本分析 (来源:BG2)

黄仁勋:因为单是土地、电力、厂房等设施就要 150 亿美元。

Brad Gerstner:我们试着做过这背后的数学题。对很多不熟悉的人来说,这听起来不合逻辑,你把竞品芯片定价为零,考虑到你们芯片并不便宜,怎么可能还是更划算?

黄仁勋:有两种看法。一是从营收角度。大家都受 「电力」 约束。假设你拿到了新增 2GW 的电力,那你希望 2GW 能被转化为营收。如果你的 「token 单位能耗 (token per watt)」 是别人的两倍,因为你做了深度且极致的协同设计,你的单位能耗性能更好,那你的客户就能从他们的数据中心产出两倍营收。谁不想要两倍营收?而就算有人给他们 15% 的折扣——比如我们 75% 的毛利,别人 50%-65% 的毛利——这点差距也绝不可能弥补 Blackwell 与 Hopper 之间 30×的差距。

过去 10 年大模型单位能效提升了 10 万倍 (来源:BG2)

就算我们把 Hopper 和别人的 ASIC 看作同级,Blackwell 也有 30×的空间。所以在同一个 GW 上,你要放弃 30×的营收。这代价太大了。就算对方白送芯片,你也只有 2GW 的电力可用,你的机会成本高得离谱——你永远会选择 「单位能耗」 最强的那套系统。

Brad Gerstner:我从一家 hyperscaler 的 CFO 那里听说过,鉴于你们芯片带来的性能提升,特别是以单位能耗 (token/gigawatt)和 「电力供给」 为硬约束,他们不得不升级到新的周期。展望 Rubin、Rubin Ultra、Feynman,这条曲线会延续吗?

黄仁勋:我们现在一年做六七颗芯片,每一颗都是系统的一部分。系统软件无处不在。要实现 Blackwell 的 30×,需要跨这六七颗芯片的联调与优化。想象一下,我每年都这么做,砰、砰、砰地连发。如果你在这锅 「芯片大杂烩」 里只做一颗 ASIC,而我们却在整锅里到处优化,这就是个很难的问题。

Brad Gerstner:这让我回到开头的护城河问题。我们做投资许久了,在整个生态投资,也投了你的竞争对手,比如 Google、博通。

但当我从第一性原理出发,你们改为以年为单位的发布节奏、跟供应链共研、规模远超所有人预期,这对资产负债表与研发有双重规模要求,你们通过收购与自研推进了 NVFusion、CPX 等。因此,你们的护城河在拓宽,至少在 「构建工厂或打造系统」 这件事上是如此。

但有趣的是,你们的估值倍数比那些人都低。我认为部分源自 「大数定律」——一家 4.5 万亿美元的公司不可能再变更大了。但一年半前我也问过你,如果市场会把 AI 负载提升 10×或 5×,我们也知道 Capex 的走势。在你看来,结合刚才谈到的优势下,营收 「不大幅更高」 的概率有多大?

黄仁勋:我这样回答,我们的机会远大于市场共识。

Brad Gerstner:我认为英伟达很可能成为第一家 10 万亿美元的公司。我在这行待得够久了。十年前,大家还说世上不可能有 1 万亿美元公司。现在我们有十家。今天的世界更大了,对吧?

黄仁勋:世界变大了。而且人们误解我们在做什么。大家记得我们是 「芯片公司」——没错,我们造芯片,造的是全球最惊人的芯片。但英伟达实际上是一家 AI 基础设施公司。

我们是你的 「AI 基础设施合作伙伴」。我们与 OpenAI 的伙伴关系就是最好证明。我们是他们的 AI 基础设施伙伴。我们以很多方式与客户合作。我们不要求任何人买我们的一切。我们不要求你买整机柜,你可以买一颗芯片、一个部件、我们的网络,或仅仅买我们的 CPU。也有人只买我们的 GPU,配别家的 CPU 和网络。我们基本上是按你喜欢的方式卖。我的唯一请求是,买点儿我们的东西就行。

Brad Gerstner:你说过,不只是更好的模型,还要有 「世界级建造者」。你说,也许全国最强的建设者是 Elon Musk。我们聊过 Colossus One,他在那里把二十几万颗 H100/H200 组成一个 「相干」 的大集群。现在他在做 Colossus Two,可能是 50 万颗 GPU、相当于几百万 H100 的 「等效」 相干集群。

黄仁勋:如果他先于所有人做到 1GW,我不惊讶。

Brad Gerstner:既能做软件与模型,又懂如何打造这些集群的 「建造者」 有什么优势?

黄仁勋:这些 AI 超级计算机极其复杂。技术复杂,采购复杂 (融资),拿地、拿电力与厂房复杂,建设复杂、点亮复杂。这恐怕是人类史上最复杂的系统工程之一。Elon 的优势在于:在他脑子里,这些系统是一体协同的,所有相互依赖关系都在他一个人脑中,包括融资。是的,而且……

Brad Gerstner:他自己就是个 「大 GPT」、一台 「大超算」。

黄仁勋:对,终极 「GPU」。他有很强的紧迫感,他非常想把它建出来。当 「意志」 与 「能力」 相遇时,不可思议的事会发生。

六、主权 AI:AI 正在成为每个国家的基础设施

Brad Gerstner:你深度参与的另一块是主权 AI……回看 30 年前,你大概难以想象如今你经常出入白宫。总统说你与英伟达对美国国家安全至关重要。面对这些,先给我个背景——若不是各国把这件事视为 「生死攸关」,至少不亚于我们在 1940 年代看待 「核」,你也不会出现在那些地方。如今如果没有一个由政府出资的 「曼哈顿计划」,那它也由英伟达、OpenAI、Meta、Google 来出资。

黄仁勋:没有人需要原子弹,但人人都需要 AI。这就是巨大的不同。AI 是现代软件。这是我一开始就说的:从通用计算到加速计算,从人写代码到 AI 写代码,这个根基不能忘,我们已经重塑了计算。它需要被普及,这就是所有国家都意识到必须进入 AI 世界的原因,因为每个国家都必须在计算中保持现代化。不会有人说:你知道吗,我昨天还用计算机,明天我就靠木棍和火种了。所以每个人都得继续向前,只是计算被现代化了而已。

第二,为了参与 AI,你必须把自己的历史、文化、价值观写进 AI。随着 AI 越来越聪明,核心 AI 学这些的速度很快,不必从零开始。所以我认为每个国家都需要一定的主权能力。我建议大家都用 OpenAI、用 Gemini、用 Grok、用 Anthropic……用各类开放模型。但他们也应该投入资源去学习如何 「构建」AI,这不仅是为了语言模型,也是为了工业模型、制造模型、国家安全模型。他们要培养一整套 「自己的智能」。因此,每个国家都应具备主权能力。

Brad Gerstner:这是否也是你在全球听到与看到的?

黄仁勋:是的。他们都会成为 OpenAI、Anthropic、Grok、Gemini 的客户,但同时也需要建设自己的基础设施。这就是英伟达在做的大想法——我们在构建 「基础设施」。就像每个国家需要能源基础设施、通信与互联网基础设施,现在每个国家都需要 AI 基础设施。

……


本文来自微信公众号:明亮公司,作者:MD

相关 文章

第19届杭州亚运会纪念币金银套多少钱(2025年9月4日)
期货市场

郑州商品交易所:关于调整红枣期货替代交割品升贴水的公告

11 分 之前

根据 《郑州商品交易所干制红枣期货业务细则》 第二十四条规定,现对红枣期货替代交割品升贴水公告如下,适用于红枣期货 2612 及后续合约,自红枣期货 2612 合约挂牌之日...

美国煤炭巨头皮博迪豪言:特朗普时代下煤炭需求将飙升五成
24 小时

哈马斯:加沙地带停火谈判已暂停

31 分 之前

新华财经加沙 9 月 28 日电 (记者黄泽民 赵伟宏) 巴勒斯坦伊斯兰抵抗运动 (哈马斯)28 日发表声明说,自 9 日卡塔尔首都多哈发生以色列针对哈马斯高层成员的袭击事件以来,...

  • 热门
  • 评论
  • 最新
老凤祥回收黄金多少钱一克(2025年6月27日)

国海证券策略首席分析师胡国鹏:下半年 A 股牛途在望,配置核心在科技成长

2025 年 8 月 1 日
铑多少钱一克(2025年06月27日)

人工智能+行动重磅发布!资金借道软件 ETF(515230) 布局,连续两日吸金近 2 亿元

2025 年 8 月 1 日
郑州宝泉钱币周五(6月27日)银条价格8.79元/克

老凤祥黄金价格今天多少一克 (2025 年 07 月 30 日)

2025 年 8 月 1 日
Lesson 1: Basics Of Photography With Natural Lighting

The Single Most Important Thing You Need To Know About Success

Lesson 1: Basics Of Photography With Natural Lighting

Lesson 1: Basics Of Photography With Natural Lighting

Lesson 1: Basics Of Photography With Natural Lighting

5 Ways Animals Will Help You Get More Business

第19届杭州亚运会纪念币金银套多少钱(2025年9月4日)

郑州商品交易所:关于调整红枣期货替代交割品升贴水的公告

2025 年 9 月 29 日
美国煤炭巨头皮博迪豪言:特朗普时代下煤炭需求将飙升五成

哈马斯:加沙地带停火谈判已暂停

2025 年 9 月 29 日
受贿2.68亿余元 农业农村部原部长唐仁健一审被判死缓

受贿 2.68 亿余元 农业农村部原部长唐仁健一审被判死缓

2025 年 9 月 29 日
  • 隐私政策
  • 联系我们
  • 关于禾湖
联系我们:+86 15388934451

Copyright © 2025 长沙禾湖信息科技有限公司. 湘 ICP 备 2023006560 号-2

没有结果
查看所有结果
  • Home
  • Tech

Copyright © 2025 长沙禾湖信息科技有限公司. 湘 ICP 备 2023006560 号-2

欢迎回来!

在下面登录您的帐户

忘记密码?

重置您的密码

请输入您的用户名或电子邮件地址以重置密码。

登录