当前位置:首页|资讯|GPT-4|ChatGPT

【上海汇正财经】如何看待 AI 算力芯片与服务器的弹性

作者:华尔街佬爷发布时间:2023-04-14

原标题:【上海汇正财经】如何看待 AI 算力芯片与服务器的弹性

事件:存储器作为底层刚需或伴随AI算力升级而同步扩容。硬件有望先行,算力+存储芯片或将直接受益。总体来看,AI需求提振,叠加存储市场库存迎来拐点,行业景气度有望触底反弹等因素,多家机构认为存储行业已进入布局期。以GPT-4/ChatGPT为代表的预训练大模型或将催生未来对AI服务器的扩产需求。未来随着ChatGPT的市占率及应用端的发展,类ChatGPT对芯片的需求将量大且具有高持续性,在先进制造及封装环节。

Transformer 模型是参数量可以无限增长的通用模型,可以处理长序列的输入、输出。

Transformer 模型是一种基于自注意力机制的深度学习模型,相较于传统 AI 模型如循环神经网络(RNN)和卷积神经网络(CNN),它在处理序列数据时具有更高的并行性和可扩展性。其中,自注意力机制使得模型能够捕捉序列中长距离依赖关系,同时避免了 RNN 中的梯度消失或爆炸问题。Transformer 模型的参数量之所以会随着数据量和任务复杂度无限增长,是因为它可以通过堆叠更多的层或增加隐藏层宽度来提高模型性能,从而适应更复杂的数据和任务;在传统 CNN/RNN 模型中,增加网络参数量会提高模型的拟合能力,但过多的参数容易导致过拟合现象。

训练:

根据英伟达测算,在 4096 颗 A100 GPU 互联的情况下,训练10000 亿参数的模型约需要 3-4 周时间,而在 4096 颗 H100 GPU 互联的情况下,时间约需要 1 周左右。考虑到 1 周是研发阶段可承受的周期,因此我们认为 4000 颗左右 H100 将是一个大型云计算企业每年支持 30-50 个 5000 亿参数模型项目训练所需要的芯片数量。考虑到目前大模型参数量已经步入万亿级别,芯片需求量可能会继续上升。若以英伟达 HGX H100-8 计算集群为单位(1024 Nvidia H100 GPUs),总共需要 4-8 个计算集群,考虑到售价为 4900 万美金/集群,则单个支持 GPT 训练的云计算中心至少投入 1.96-3.92 亿美金用于服务器的购买 。

推理:

相比训练,模型的部署是更大的市场。我们认为应用对于服务器的最大承载能力要求在于过峰,即满足 PCU 时刻的访问需求。根据 Statista,Steam 2021 年月活用户约为 1.32 亿人左右,而 Steam公布服务器最高访问人数截至 2021 年 12 月 31 日为 2738 万人,最高817 万人同时在线进行游戏。因此我们合理推断一款被高强度访问的应用,最高在线人数约为月活用户的 6.19%-20.74%。假设在国内 8亿用户体量下,最高并发访问人数可高达 4952 万人-16592 万人。根据 10 DGX H100 服务器一秒内可支持 300 用户的并发访问,若响应时长延缓至 5 秒及以上,最高可支持 1000 人以上的并发访问。据此测算,国内由 AI 带动的服务器需求量约为 5 万台-16.6 万台,芯片为50-166 万颗。假设全球活跃用户体量为国内用户体量的 3 倍,则全球服务器需求量为 15-50 万台,芯片需求量为 150-500 万颗。

投资策略及建议:

ChatGPT 的快速渗透侧面反映出大模型在通用任务上所展现的强大能力,也为人工智能产业未来的投资指引了方向。在AIGC 驱动新一轮产业革命的趋势下,我们认为 AI 算力产业链上下游均有投资机会。

建议关注:海光信息、寒武纪-U、龙芯中科、澜起科技、工业富联、紫光国微、中芯国际、华虹半导体、华大九天、概伦电子、芯原股份、兴森科技、通富微电、华正新材、方邦股份、长电科技、海康威视、大华股份、晶晨股份、瑞芯微、全志科技。

参考资料: 信达证券《如何看待 AI 算力芯片与服务器的弹性?》 分析师:莫文宇、韩宇杰。

风险警示:市场有风险,投资需谨慎。上海汇正财经顾问有限公司是证监会批准的证券投资咨询公司, 组织机构代码统一信用码为91310107MA1G0KQW5N,本公司是具有证券投资咨询资格证书,是合法的证券咨询平台。本文仅为投资者教育使用,不构成任何投资建议,投资者据此操作,风险自担。力求本文所涉信息准确可靠,但并不对其准确性、完整性和及时性做出任何保证,对投资者据此进行投资所造成的一切损失不承担任何责任。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1