中信建投:两年内算力板块都将处于高景气度阶段 重点推荐AI算力产业链各环节相关公司

2023-06-15 08:01:15 37

中信建投发布研报表示,生成式AI取得突破,以ChatGPT为代表的大模型训练和推理端均需要强大的算力支撑,产业链共振明显,产业链放量顺序为:先进制程制造->以 Chiplet 为代表的 2.5D/3D 封装、HBM->AI 芯片->板卡组装->交换机->光模块->液冷->AI 服务器->IDC 出租运维。

综合来看,大模型仍处于混战阶段,应用处于渗透率早期,AI板块中算力需求增长的确定性较高,在未来两年时间内,算力板块都将处于高景气度阶段,重点推荐AI算力产业链各环节相关公司。

中信建投的主要观点如下:

生成式AI取得突破,实现了从0到1的跨越,以ChatGPT为代表的人工智能大模型训练和推理需要强大的算力支撑。

自2022年底OpenAI正式推出ChatGPT后,用户量大幅增长,围绕ChatGPT相关的应用层出不穷,其通用性能力帮助人类在文字等工作上节省了大量时间。同时在Transformer新架构下,多模态大模型也取得新的突破,文生图、文生视频等功能不断完善,并在广告、游戏等领域取得不错的进展。生成式AI将是未来几年最重要的生产力工具,并深刻改变各个产业环节,围绕生成式AI,无论是训练还是推理端,算力需求都将有望爆发式增长。

算力产业链价值放量顺序如下:先进制程制造->以Chiplet为代表的2.5D/3D封装、HBM->AI芯片->板卡组装->交换机->光模块->液冷->AI服务器->IDC出租运维。

先进封装、HBM:为了解决先进制程成本快速提升和“内存墙”等问题,Chiplet设计+异构先进封装成为性能与成本平衡的最佳方案,台积电开发的CoWoS封装技术可以实现计算核心与HBM通过2.5D封装互连,因此英伟达A100、H100等AI芯片纷纷采用台积电CoWos封装,并分别配备40GB HBM2E、80GB的HBM3内存。全球晶圆代工龙头台积电打造全球2.5D/3D先进封装工艺标杆,未来几年封装市场增长主要受益于先进封装的扩产。

AI芯片/板卡封装:以英伟达为代表,今年二季度开始释放业绩。模型训练需要规模化的算力芯片部署于智能服务器,CPU不可或缺,但性能提升遭遇瓶颈,CPU+xPU异构方案成为大算力场景标配。其中GPU并行计算优势明显,CPU+GPU成为目前最流行的异构计算系统,而NPU在特定场景下的性能、效率优势明显,推理端应用潜力巨大,随着大模型多模态发展,硬件需求有望从GPU扩展至周边编解码硬件。

AI加速芯片市场上,英伟达凭借其硬件产品性能的先进性和生态构建的完善性处于市场领导地位,在训练、推理端均占据领先地位。根据Liftr Insights数据,2022年数据中心AI加速市场中,英伟达份额达82%。因此AI芯片需求爆发,英伟达最为受益,其 Q2收入指引110亿美金,预计其数据中心芯片业务收入接近翻倍。国内厂商虽然在硬件产品性能和产业链生态架构方面与前者有所差距,但正在逐步完善产品布局和生态构建,不断缩小与行业龙头厂商的差距,并且英伟达、AMD对华供应高端GPU芯片受限,国产算力芯片迎来国产替代窗口期。

交换机:与传统数据中心的网络架构相比,AI数据网络架构会带来更多的交换机端口的需求。交换机具备技术壁垒,中国市场格局稳定。

光模块:AI算力带动数据中心内部数据流量较大,光模块速率及数量均有显著提升。训练侧光模块需求与GPU出货量强相关,推理侧光模块需求与数据流量强相关,伴随应用加速渗透,未来推理所需的算力和流量实际上可能远大于训练。目前,训练侧英伟达的A100 GPU主要对应200G光模块和400G光模块,H100 GPU可以对应400G或800G光模块。

根据该行的测算,训练端A100和200G光模块的比例是1:7,H100和800G光模块的比例是1:3.5。800G光模块2022年底开始小批量出货,2023年需求主要来自于英伟达和谷歌。在2023年这个时间点,市场下一代高速率光模块均指向800G光模块,叠加AIGC带来的算力和模型竞赛,该行预计北美各大云厂商和相关科技巨头均有望在2024年大量采购800G光模块,同时2023年也可能提前采购。

光模块上游——光芯片:以AWG、PLC等为代表的无源光芯片,国内厂商市占率全球领先。以EEL、VCSEL、DFB等激光器芯片、探测器芯片和调制器芯片为代表的有源光芯片是现代光学技术的重要基石,是有源光器件的重要组成部分。

液冷:AI大模型训练和推理所用的GPU服务器功率密度将大幅提升,以英伟达DGX A100服务器为例,其单机最大功率约可达到6.5kW,大幅超过单台普通CPU服务器500w左右的功率水平。

数据显示,自然风冷的数据中心单柜密度一般只支持8kW-10kW,通常液冷数据中心单机柜可支持30kW以上的散热能力,并能较好演进到100kW以上,相较而言液冷的散热能力和经济性均有明显优势。同时“东数西算” 明确PUE(数据中心总能耗/IT设备能耗)要求,枢纽节点PUE要求更高,同时考虑到整体规划布局,未来新增机柜更多将在枢纽节点内,风冷方案在某些地区可能无法严格满足要求,液冷方案渗透率有望加速提升。目前在AI算力需求的推动下,如浪潮信息、中兴通讯等服务器厂商已经开始大力布局液冷服务器产品。在液冷方案加速渗透过程中,数据中心温控厂商、液冷板制造厂商等有望受益。

AI服务器:预计今年Q2-Q3开始逐步释放业绩。具体来看,训练型AI服务器成本中,约7成以上由GPU构成,其余CPU、存储、内存等占比相对较小,均价常达到百万元以上。对于推理型服务器,其GPU成本约为2-3成,整体成本构成与高性能型相近,价格常在20-30万。根据IDC数据,2022年全球AI服务器市场规模202亿美元,同比增长29.8%,占服务器市场规模的比例为16.4%,同比提升1.2pct。

该行认为全球AI服务器市场规模未来3年内将保持高速增长,市场规模分别为395/890/1601亿美元,对应增速96%/125%/80%。根据IDC数据,2022年中国AI服务器市场规模67亿美元,同比增长24%。该行预计,2023-2025年,结合对于全球AI服务器市场规模的预判,以及对于我国份额占比持续提升的假设,我国AI服务器市场规模有望达到134/307/561亿美元,同比增长101%/128%/83%。竞争格局方面,考虑到AI服务器研发和投入上需要更充足的资金及技术支持,国内市场的竞争格局预计将继续向头部集中,保持一超多强的竞争格局。

IDC:在数字中国和人工智能推动云计算市场回暖的背景下,IDC作为云基础设施产业链的关键环节,也有望进入需求释放阶段。在过去两年半,受多重因素影响下,云计算需求景气度下行,但IDC建设与供给未出现明显放缓,2021年和2022年分别新增机柜数量120万架和150万架,因此短期内出现供需失衡情况(核心区域供需状况相对良好),部分地区上电率情况一般。所以IDC公司2022年业绩普遍承压。

当前,该行认为国内IDC行业有望边际向好。随着宏观经济向好,平台经济发展恢复,AI等拉动,IDC需求有望逐步释放,叠加2023新增供给量有望较2022年减少(例如三大运营商2022年新增IDC机柜15.6万架,2023年计划新增11.4万架)。展望未来,电信运营商在云计算业务方面仍将实现快速增长,百度、字节跳动等互联网公司在AIGC领域有望实现突破性进展,都将对包括IDC在内的云基础设施产生较大新增需求,相关IDC厂商有望获益。

风险提示:国产替代进程不及预期。GPU的国产替代过程中面临诸多困难,国产替代进程可能不及预期;AI技术进展不及预期。当前AI技术的快速进步带动了巨大的AI算力需求,如果AI技术进展不及预期,可能对GPU市场的整体需求产生不利影响;互联网厂商资本开支不及预期等。

追加内容

本文作者可以追加内容哦 !