时间:2023-03-03|浏览:251
用戶喜愛的交易所
已有账号登陆后会弹出下载
近日,英伟达公布了 2023 财年及其第四季度财报。在加密货币低迷、消费需求疲软、去库存的种种压力下,英伟达在 2023 财年的总营收基本与上一财年持平,约为 270 亿美元。其中,第四季度营收为 60.5 亿美元,较去年同期下降了 21%。
尽管如此,其业绩表现依然好于分析师此前的预期。财报发布当天,英伟达股价大涨 14%,市值达到 5800 亿美元。事实上,人们对英伟达的乐观情绪已经蔓延数月。自今年 1 月以来,英伟达的市值涨幅最高达 60%。
这多亏了 OpenAI,其发布的 ChatGPT 和 DALL-E 2 这样的大型语言模型(Large Language Model)将生成式 AI 引入了公众的视线——几乎所有软件将被 AI 重塑,黄仁勋更是将其比作「AI 的 iPhone 时刻」。
就此,时代的风口由元宇宙和 web3 突然切换到生成式 AI,FAAMG 等硅谷巨头们匆忙备战随时「开打」。而英伟达,稳稳地成为这场时代之战的「最大军火商」。
作为当下「AI 超级周期的跳动心脏」,英伟达的 GPU(图形处理芯片)是训练和操作机器学习模型的最佳选择,因而被视为「2023 年云资本支出重心转向人工智能的最大受益者」。
其实,这不是英伟达第一次乘上时代的风车——加速计算、深度学习、挖矿、元宇宙,英伟达屡次踩中时代的风口。在它成立的短短 30 年里,芯片江湖已然换了人间,当年与 90 家显卡商厮杀落败的初创公司,早已成为市值最高的芯片霸主。
英伟达屡次「躺赢」,离不开其掌舵者黄仁勋的战略眼光——总是能精准预判下一个技术变革,提前下手。在近日的财报电话会上,黄仁勋透露了:这一次,他提前看到的未来及其相应的战略布局。面对大语言模型加持的生成式 AI,「核弹厂」的野心远非提供「军火」。
ChatGPT 大战背后的「战争之王」
去年 11 月底以来,OpenAI 让人们见识到了「通用智能」的厉害,依托大语言模型的 ChatGPT 所展现的思维链条(Chain of Thought)和自发涌现的各种能力(Emergence)令人惊艳——尽管 ChatGPT 本身没有知识和智慧,但是它做到了「让你以为它有知识甚至智慧」的程度。
不久前,在加州大学伯克利分校哈斯商学院的炉边谈话上,黄仁勋兴奋地评价 ChatGPT 将开启科技行业的新纪元,也是人工智能和计算行业有史以来最美妙的事情。
他说:「上一次看到一项如此多才多艺、可以解决问题并经常以多种方式带给人们惊喜的科技是什么时候?它可以写一首诗,可以填写电子表格,可以编写 SQL 查询并执行,可以写 Python 代码……对于很多一直致力于此的人来说,我们一直在等待这一刻,这是人工智能的 iPhone 时刻。我现在可以将它用作 API 并连接到电子表格、PPT、各个应用程序,它有让一切变得更好的潜力」。
这是「AI 将重塑所有软件」的际遇,而要让生成式 AI 能够像 ChatGPT 这样展现五花八门的通识才能,必须依托像 GPT3.5 这样的底层大语言模型。人们将其比作移动互联网时代里安卓或 iOS。因此,大语言模型也就成为大厂和创业公司的必争之地。
无论是「造」出这样一个大模型,还是运行这样一个大模型,都需要极大的算力,需要成千上万个 GPU。据报道,OpenAI 用了 10000 个英伟达的 GPU 来训练 ChatGPT。花旗集团估计,ChatGPT 的使用可能会在 12 个月内为英伟达带来 30 亿至 110 亿美元的销售额。
此前,《中国电子报》采访业内人士表示,「大模型技术涉及 AI 开发、推理、训练的方方面面,所谓模型的『大』主要是参数量大、计算量大,需要更大体量的数据和更高的算力支撑。对于 GPU 厂商来说,大模型是值得期待的算力红利,尤其是通用性极强的英伟达」。
全球来看,大算力芯片领域主要有两个玩家,英伟达和 AMD,从市占率来说,英伟达远超 AMD。根据 John Peddie Research 的数据,英伟达占据了 GPU 市场约 86% 的份额。
这也就不难理解,在炙手可热的生成式 AI 浪潮下,英伟达被视为最大的潜在赢家。从财报上看,这波生成式 AI 对于英伟达的需求主要反映在数据中心业务。事实上,2023 整个财年的四个季度,数据中心已经替代了英伟达起家的支柱业务——游戏,成为第一大业务。
2022 财年第 4 季度——2023 财年第 4 季度,英伟达各个板块的营收 | 截图来源:Nvidia
2023 财年,数据中心总收入增长了 41%,达到创纪录的 150.1 亿美元。仅就第四季度而言,数据中心收入为 36.2 亿美元,贡献了英伟达全公司收入的 60% 左右。
数据中心增长的基本盘来自于新一代旗舰产品 H100 的出货量持续走高、云的渗透率持续增长、以及超大规模客户扩大了 AI 布局。
就 H100 而言,其收入在第二季度就已经远远高于 A100,后者的营收份额连续下降。据悉,H100 在训练方面比 A100 快 9 倍,在基于 Transformer 的大型语言模型推理方面比 A100 快 30 倍。
同时,英伟达正在为越来越多的、快速增长的云服务商(Cloud Service Providers,简称 CSP)提供服务,包括甲骨文和一些专注于 GPU 的云服务提供商(GPU specialized CSPs)。在过去的 4 个季度中,CSP 客户贡献了数据中心收入的 40% 左右。