栏目分类
PRODUCT CENTER

约炮专区

你的位置:丝袜xxx > 约炮专区 > 文轩 探花 英伟达GPU,好日子到头了?

文轩 探花 英伟达GPU,好日子到头了?

发布日期:2024-10-05 16:23    点击次数:119

文轩 探花 英伟达GPU,好日子到头了?

(原标题:英伟达GPU文轩 探花,好日子到头了?)

淌若您但愿不错不时碰面,接待标星储藏哦~

开首:内容来自eetimes.jp,谢谢。

将来NVIDIA GPU需求加多的“GPU节”会发生什么?在本文中,咱们通过分析 AI(东说念主工智能)作事器出货量数据来预测 NVIDIA“GPU 节”的将来。

NVIDIA的“GPU节”会实现吗?

自2022年11月30日好意思国Open AI发布ChatGPT以来,生成式AI(东说念主工智能)成为一大激越,NVIDIA的GPU行为AI半导体运转流行。但是,在GPU的分娩中,存在两个瓶颈:台积电的中制程和高带宽内存(HBM)与DRAM堆叠,导致GPU在环球范围内短少“瓶颈是HBM和台积电之间的中间制程吗?”

在这些GPU中,“H100”的需求量尤其大,其价钱飙升至4万好意思元,激励了所谓的NVIDIA“GPU节”。

在这种情况下,台积电将中制程中介层产能翻倍,SK海力士等DRAM制造商加多了HBM产量,导致“H100”的交货本领从52周贬抑至20周。

那么,NVIDIA的“GPU节”会实现吗?

因此,在这篇著作中,咱们将征询NVIDIA的“GPU节”是否行将实现。先说论断,计议即使到2024年,ChatGPT级AI树立和运营所需的高端AI作事器(界说将在后头讲明)也唯一3.9%的出货量。因此,谷歌、亚马逊、微软等云作事提供商(CSP)的需求似乎根柢无法得到安闲。总之,到面前为止,NVIDIA 的“GPU 节”还仅仅一个运转,全面的生成式 AI 激越行将到来。

底下,咱们先简单总结一下NVIDIA GPU的两大瓶颈。

两个NVIDIA GPU瓶颈

在NVIDIA GPU的分娩中,代工场台积电认真通盘前、中、后工序。这里,中间工序是指分别分娩GPU、CPU、HBM等芯片,并将其舍弃在从12英寸硅片切下的方形基板上的工序。这种基板称为硅中介层(图 1)。

图1 2.5D到3D中出现的中级工艺,举例NVIDIA GPU(尊府开首:Tadashi Kamewada)

另外,台积电树立的NVIDIA GPU封装称为CoWoS(Chip on Wafer on Substrate),但两个瓶颈是硅中介层容量和HBM(图2)。情况如下。

图2 CoWoS结构和NVIDIA GPU上的两个瓶颈(开首:WikiChip)

CoWoS 于 2011 年树立,但尔后,跟着 GPU 性能的普及,GPU 芯片的尺寸不息增大,GPU 中安设的 HBM 数目也随之加多(图 3)。效力,硅中介层逐年变大,而从单个晶圆上可取得的中介层数目却与之成反比减少。

图3 Interposer面积和HBM数目跟着每一代的加多而加多(尊府开首:KC Yee(TSMC))

此外,GPU中安设的HBM数目加多,HBM里面堆叠的DRAM芯片数目也加多。此外,DRAM每两年就会袖珍化一次,HBM尺度每两年更新一次以普及性能。因此,顶端HBM供不应求。

在这种情况下,台积电将其硅中介层产能从2023年夏日前后的每月15000片翻倍至本年夏日前后的每月朝上30000片。此外,三星电子和好意思光科技已取得NVIDIA认证,并运转供应顶端HBM,此前由SK海力士主导。

受上述影响,需求量最高的NVIDIA H100的交货本领从52周大幅贬抑至20周。那么,AI作事器的出货量因此加多了几许呢?

两类AI作事器的界说

字据DIGITIMES Research发布的《环球年度作事器出货量,2023-2024》(Servers Report Database, 2024)显现,AI作事器有两种类型:

配备两个或多个AI加快器但未配备HBM的系统称为“通用AI作事器”。

配备至少四个搭载HBM的AI加快器的系统被称为“高端AI作事器”。

这里的AI加快器是指为加快AI诓骗,尽头是神经汇集和机器学习而盘算的突出硬件,典型的例子即是NVIDIA的GPU。此外,ChatGPT级别的生成式AI的树立和运行需要多半高端AI作事器,而不是通用AI作事器。

那么,通用AI作事器和高端AI作事器的出货量分别是几许?

通用AI作事器和高端AI作事器出货量

图4显现了2022年至2023年通用AI作事器和高端AI作事器的出货量。计议2022年通用AI作事器出货量为34.4万台,2023年出货量为47万台,2024年出货量为72.5万台。

图4 通用AI作事器和高端AI作事器出货量(2022-2024)(尊府开首:DIGITIMES Research)

同期,ChatGPT级生成式AI树立和运营所需的高端AI作事器计议2022年出货3.4万台,2023年出货20万台,2024年出货56.4万台。

那么,高端AI作事器的出货量能否安闲好意思国CSP的需求呢?

图5显现了作事器、通用AI作事器和高端AI作事器的出货数目。当我画出这张图并看着它时,我惊呆了,思知说念“这是有几许高端AI作事器正在出货吗? ”这是因为,从作事器举座来看,不管是通用东说念主工智能作事器如故高端东说念主工智能作事器,出货量皆相配少。

图5 作事器、通用AI作事器、高端AI作事器出货量

尊府开首:作家字据MIC和DIGITIMES

当我筹谋树立和运行 ChatGPT 级别的生成式 AI 需要几许高端 AI 作事器时,我愈加失望。

ChatGPT级别生成AI所需的高端AI作事器

据报说念,ChatGPT 的树立和运营需要 30,000 台 NVIDIA DGX H100 高端 AI 作事器(图 6)。当我看到这个三万台的数字时,我感到头晕。

图6 运行ChatGPT需要几许高端AI作事器?(开首:HPC网站)

趁机说一句,“NVIDIA DGX H100”配备了八颗“H100”芯片,每颗芯片的价钱已飙升至4万好意思元,使得系统总价达到46万好意思元。换句话说,生成 ChatGPT 级别的 AI 需要投资 30,000 单元 x 460,000 好意思元 = 138 亿好意思元(按 1 好意思元 = 145 日元料想,约 2 万亿日元!)。

我以为天下上充斥着生成式东说念主工智能系统,但骨子上也曾(或将要)构建了几许 ChatGPT 类生成式东说念主工智能?(图7)

图7 作事器出货量、高端AI作事器出货量、ChatGPT级生成AI系统数目(开首:MIC和DIGITIMES)

由于2022年高端AI作事器出货量为3.4万台,因此只可构建一套ChatGPT级AI系统(这恰是ChatGPT)。次年,即2023年,高端AI作事器出货量达到20万台,因此不错构建6到7个ChatGPT级AI系统。由于计议2024年将出货56.4万台高端AI作事器,因此将有可能构建18至19个ChatGPT级AI系统。

不外,上述估算假定ChatGPT级AI不错用3万台高端AI作事器“NVIDIA DGX H100”构建。但是,由于一代 AI 可能变得愈加复杂,在这种情况下可能需要朝上 30,000 个 NVIDIA DGX H100。总而言之,好意思国通讯作事提供商不太可能对现时高端东说念主工智能作事器的出货量感到沸腾。

当今,咱们来望望每个最终用户(举例好意思国的 CSP)领有几许台高端 AI 作事器。

最终用户的高端东说念主工智能作事器数目

图 8显现了最终用户的高端 AI 作事器数目。2023年,领有OpenAI的微软领有最多的高端AI作事器数目,为6.3万台,但到2024年,谷歌将卓绝微软,领有最多的高端AI作事器。

图8 按最终用户分手的高端东说念主工智能作事器(2023-2024)(开首:DIGITIMES Research)

2024 年名次前五的分别是谷歌,以 162,000 台(5 个系统)名次序一,微软以 90,000 台(3 个系统)名次序二,超微以 68,000 台(2 个系统)名次序三,亚马逊(67,000 台)名次序四。2个系统),其次是Meta,以46,000个单元(1个系统)名次序五(括号中的数字是ChatGPT类生成AI不错构建的系统数目)。由此可见,好意思国前五名光热发电企业把持了约80%的份额。

接下来咱们望望AI加快器的高端AI作事器出货量(图9),正如预期,NVIDIA的GPU是AI加快器使用最多的,2024年将达到33.6万台。但是,令东说念主惊诧的是,第二受接待的公司不是AMD,而是谷歌。

图9 按东说念主工智能加快器分手的高端东说念主工智能作事器(2023-2024)(尊府开首:DIGITIMES Research)

谷歌树立了我方的张量科罚单元(TPU)行为东说念主工智能加快器。到2024年,搭载该TPU的高端AI作事器数目将达到13.8万台。这里,从图8咱们知说念,谷歌到2024年将领有16.2万台高端AI作事器。因此,计议有 138,000 台配备了 Google 自家的 TPU,其余 24,000 台配备了 NVIDIA 的 GPU。换句话说,关于英伟达来说,谷歌既是客户,亦然可怕的敌东说念主。

另外,淌若咱们再看一下2024年的出货量,名次序三的AMD有4.5万台,名次序四的亚马逊则以4万台紧随自后。亚马逊还在树立 AWS Trainium 行为东说念主工智能加快器。淌若再等等,AMD可能会被亚马逊卓绝。

总而言之,面前,NVIDIA 的 AI 加快器出货量最多,但谷歌和亚马逊正在成为其强有劲的竞争敌手。NVIDIA的竞争敌手不是科罚器制造商AMD(诚然不是面对危急的英特尔),而是好意思国的CSP谷歌和亚马逊。

快播成人电影网

全面的生成式东说念主工智能激越行将到来

让咱们总结一下到面前为止的一切。字据 DIGITIMES Research 的一份证实,计议到 2024 年,大约树立和运行 ChatGPT 级生成式 AI 的高端 AI 作事器出货量仅占通盘作事器的 3.9%。东说念主们以为这个出货量根柢无法安闲CSP的需求。

也即是说,NVIDIA 2023年至2024年的“GPU节”仅仅一个运转。因此,全面的生成式东说念主工智能激越很可能到来。让咱们不才面展示其基础。

图10显现了半导体行业协会 (SIA) 发布的按诓骗分手的半导体商场偏激将来预测。据SIA预测,2030年环球半导体商场范围将朝上1万亿好意思元。

图10 按诓骗分手的半导体出货量预测(开首:SIA博客)

抑制 2030 年,最大的商场将是料想和数据存储。其中包括PC和作事器(诚然还有高端AI作事器),但由于PC出货量不太可能大幅加多,因此作事器可能会占大多数。

有线通讯是指用于数据中心的半导体。这意味着到2030年,料想和数据存储(3300亿好意思元)+有线通讯(600亿好意思元)=料想3900亿好意思元将成为数据中心(包括PC)的半导体,成为环球最大的商场。

另一件值得调遣的事情是数据中心商场偏激出路,如图11所示。2022年ChatGPT发布后,数据中心商场计议将稳步增长。数据中心由三个成分构成:汇集基础才调、作事器和存储,计议从 2023 年到 2029 年,作事器和存储将分别加多一倍附近。

图11 数据中心商场瞻望(全面的生成式AI激越尚未到来)(尊府开首:作家字据Statista Market Insights数据制作)

这么,作事工具半导体(包括高端AI作事器)将占据环球商场最大份额,数据中心商场也将扩大。

重迭终末一次。到面前为止,NVIDIA 的“GPU 节”还仅仅节前步履。全面的生成式东说念主工智能激越行将到来。

https://eetimes.itmedia.co.jp/ee/articles/2410/02/news064.html

半导体极品公众号保举

专注半导体界限更多原创内容

调遣环球半导体产业动向与趋势

*免责声明:本文由作家原创。著作内容系作家个东说念主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或复古,淌若有任何异议,接待有关半导体行业不雅察。

今天是《半导体行业不雅察》为您共享的第3904内容,接待调遣。

『半导体第一垂直媒体』

及时 专科 原创 深度

公众号ID:icbank

可爱咱们的内容就点“在看”共享给小伙伴哦文轩 探花