如何看待 AI 算力芯片与服务器的弹性

2023-06-11 08:02:42 45

 

事件:存储器作为底层刚需或伴随AI算力升级而同步扩容。硬件有望先行,算力+存储芯片或将直接受益。总体来看,AI需求提振,叠加存储市场库存迎来拐点,行业景气度有望触底反弹等因素,多家机构认为存储行业已进入布局期。以GPT-4/ChatGPT为代表的预训练大模型或将催生未来对AI服务器的扩产需求。未来随着ChatGPT的市占率及应用端的发展,类ChatGPT对芯片的需求将量大且具有高持续性,在先进制造及封装环节。

 

Transformer 模型是参数量可以无限增长的通用模型,可以处理长序列的输入、输出。

Transformer 模型是一种基于自注意力机制的深度学习模型,相较于传统 AI 模型如循环神经网络(RNN)和卷积神经网络(CNN),它在处理序列数据时具有更高的并行性和可扩展性。其中,自注意力机制使得模型能够捕捉序列中长距离依赖关系,同时避免了 RNN 中的梯度消失或爆炸问题。Transformer 模型的参数量之所以会随着数据量和任务复杂度无限增长,是因为它可以通过堆叠更多的层或增加隐藏层宽度来提高模型性能,从而适应更复杂的数据和任务;在传统 CNN/RNN 模型中,增加网络参数量会提高模型的拟合能力,但过多的参数容易导致过拟合现象。 
 

训练:

根据英伟达测算,在 4096 颗 A100 GPU 互联的情况下,训练10000 亿参数的模型约需要 3-4 周时间,而在 4096 颗 H100 GPU 互联的情况下,时间约需要 1 周左右。考虑到 1 周是研发阶段可承受的周期,因此我们认为 4000 颗左右 H100 将是一个大型云计算企业每年支持 30-50 个 5000 亿参数模型项目训练所需要的芯片数量。考虑到目前大模型参数量已经步入万亿级别,芯片需求量可能会继续上升。若以英伟达 HGX H100-8 计算集群为单位(1024 Nvidia H100 GPUs),总共需要 4-8 个计算集群,考虑到售价为 4900 万美金/集群,则单个支持 GPT 训练的云计算中心至少投入 1.96-3.92 亿美金用于服务器的购买 。 
 

推理:

相比训练,模型的部署是更大的市场。我们认为应用对于服务器的最大承载能力要求在于过峰,即满足 PCU 时刻的访问需求。根据 Statista,Steam 2021 年月活用户约为 1.32 亿人左右,而 Steam公布服务器最高访问人数截至 2021 年 12 月 31 日为 2738 万人,最高817 万人同时在线进行游戏。因此我们合理推断一款被高强度访问的应用,最高在线人数约为月活用户的 6.19%-20.74%。假设在国内 8亿用户体量下,最高并发访问人数可高达 4952 万人-16592 万人。根据 10 DGX H100 服务器一秒内可支持 300 用户的并发访问,若响应时长延缓至 5 秒及以上,最高可支持 1000 人以上的并发访问。据此测算,国内由 AI 带动的服务器需求量约为 5 万台-16.6 万台,芯片为50-166 万颗。假设全球活跃用户体量为国内用户体量的 3 倍,则全球服务器需求量为 15-50 万台,芯片需求量为 150-500 万颗。 
 

投资策略及建议:

ChatGPT 的快速渗透侧面反映出大模型在通用任务上所展现的强大能力,也为人工智能产业未来的投资指引了方向。在AIGC 驱动新一轮产业革命的趋势下,我们认为 AI 算力产业链上下游均投资机会还很大!

追加内容

本文作者可以追加内容哦 !