开年甫两个月,英伟达股价已涨近60%,但即便已经在高点,英伟达业绩表现再度远超预期。 甚至有分析师评论,「没有什么比死亡、税收和英伟达获利超出预期更确定的事情了。」
英伟达2024财年四季度(截至2024年1月28日)营收年增265%,达221亿美元,远高于分析师预期和英伟达上季给出的财测(200亿美元)。 除此之外,英伟达获利升至9倍,达123亿美元,毛利率更飙升至76.7%。
这样壮观的业绩背后靠的是营收占比达83%的数据中心业务。 该业务在第四季度同比增长409%,达到184亿美元。 英伟达表示,数据中心业绩的增长反映了 Hopper GPU 出货量的增加,因为该产品用于训练和推理大语言模型和生成式 AI 应用。
过去,数据中心的主要场景是互联网客户在云端运作的加速运算需求,但如今在英伟达数据中心业务中,大模型的推理场景的营收占比达40%,与生成式AI的应用同为数据中心业务的支柱。
先前,多位云端运算产业人士向极客公园表示,去年采购英伟达的GPU,主要用来做大模型的训练,只有大模型在实际场景中作为应用被广泛调用,算力才会更多被用于推理。
英伟达客户们——顶流大模型厂商和 AI 应用公司,他们现在在用大模型做什么? 效果如何? 什么是大模型给业务现在就能带来的好处?
英伟达估计,过去一年,数据中心营收约莫40%来自人工智能推理、构建和部署人工智能解决方案,几乎涉及每个行业。 执行长黄仁勋尚且表示,该比例已是保守估计,因为举凡网络新闻、视频、音乐等推荐算法系统,过去是基于CPU的方式,现在,随着深度学习和生成式AI的渗透,这些推荐算法系统开始转向GPU加速的方式。
「搜索附近的服务需要 GPU 加速,排名需要 GPU 加速,并且需要 GPU 加速来产生增强信息。 GPU 现在存在于推荐系统的每个步骤中,世界上几乎每个大公司都必须运行这些大型推荐系统。 」
除此之外,还有很多新的推理场景,当使用 ChatGPT 时,就是在做推理,当使用 Adobe 的 Firefly 模型生成图片时,就是在做推理,等等。
对于40%的推理占比,英伟达财务长Colette Kress称,消费者互联网公司正在投资生成式AI,通过内容创作和广告、线上产品描述和人工智能购物辅助的自动化工具,为内容创作者、广告商和客户提供支持。 企业软件公司正在应用生成式人工智能来帮助客户实现生产力的提升,例如微软和 Meta。
微软近日公布,超过 50000 个组织使用 Github 的合作试点业务来提高其开发人员的生产力,这使得 Github 营收年增 40%,其他软件业务也有类似成长,如 Microsoft 365 中的 Copilot 。
Meta 在最近一个季度的财务表现,则显示了AI在推荐算法的应用,(大模型带来的)更准确的预测和广告客户表现的改善是其营收显著增长的原因。
相较于数据中心的涨势,英伟达曾经的王牌——游戏业务(包括笔记本电脑和个人电脑显示卡)年增56%,达到28.7亿美元。 汽车业务则较去年同期下降4%至2.81亿美元,而其OEM和其他业务(包括加密芯片)则成长7%至9.000万美元。 英伟达为专业应用制造图形硬件的业务增长了105%,达到4.63亿美元。
在创纪录的财务表现下,英伟达也有隐忧──中国限制、同业竞争
英伟达表示,受到美国最近限制向中国出口先进人工智能半导体的影响,其中国数据中心营收大幅下降,第四季中国地区数据中心营收占比已自2023财年的19%下降至个位数,预计2025财年第一季也将维持在类似范围内。
另一项挑战来自同业竞争,各企业正联手遏制英伟达继续变得更强大。 上周三,英特尔在硅谷召集了一系列合作伙伴和潜在客户,讨论其提供制造服务的计划,这可能会提高行业制造人工智能芯片的能力。 与会者还包括OpenAI首席执行官Sam Altman。 高度依赖英伟达的OpenAI此前被爆出正筹集5至7万亿美元以建设AI芯片等基础设施的消息。
英伟达现有的大客户,亚马逊、谷歌和微软等大型云计算公司也正在设计自己的人工智能芯片,并在内部使用,这使得它们减少了对英伟达芯片的依赖。 微软最近还开发了可加速服务器之间数据流的网络设备,该设备与配备其芯片的英伟达网络设备竞争。
尽管当前 AI 芯片供不应求,英伟达的成长暂时不会放缓,但英伟达高层仍深知挑战四伏,而提前布局未来。 黄仁勋在法说会上表示,公司仍处于人工智能基础设施浪潮第一波的早期阶段,未来还会有更多的成长,向超大规模企业和人工智能新创公司销售产品。 「我们确实进入了将该技术传播到各个行业的 10 年周期的第一年。」
未来,英伟达通过新客户和新业务,可能带来新的增长引擎。
新客户方面,在美国和中国以外的地区,主权人工智能已成为另一个需求驱动因素。 例如,英伟达向阿联酋公司卖出了「主权人工智能」的想法,且其数据中心项目在当地落脚。
英伟达表示,世界各国都在投资人工智能基础设施,以支持在本国语言、国内数据基础上建构大型语言模型,并支持本国的研究和企业生态系统。
在新业务方面,英伟达特别提到了软件收入。
黄仁勋表示,软件对于加速运算至关重要,这是加速运算和通用运算之间的根本区别。 软件在英伟达与云端厂商合作方式中非常关键,英伟达为其带来CUDA生态,又因为生成式AI,让所有软件企业都需要加速运算,提高吞吐量,但绝大多数企业没有大型工程团队来维护和优化他们的软件堆叠,以在全球所有云端和私有云以及本地运行。 因此,英伟达将对这些企业所有的软件堆栈进行管理、优化、修补,也就是 Nvidia AI Enterprise 服务。
「我们将其推向市场的方式是将 Nvidia AI Enterprise 视为操作系统,每年每个 GPU 收取 4500 美元。 我的猜测是,世界上每一家在专有云和私有云中部署软件的软件企业公司 ,都将在 Nvidia AI Enterprise 上运行」黄仁勋说。