(报告出品方:东吴证券)
1. ChatGPT 快速迭代,OpenAI 模型演进,下游应用百花齐放
GPT-4 是一个大型的多模态模型,相比上一代 ChatGPT 新增了图像功能,同时具备 更精准的语言理解能力。GPT 的升级背后是 OpenAI 的大语言模型的进一步演进,同时 带动下游应用的拓展,涌现出新一批应用场景。
1.1. GPT 迭代更新,人工智能掀起科技潮。
GPT 升级至四代,模型能力高速提升。ChatGPT 是由 OpenAI 开发的自然语言生成 模型,采用 Transformer 神经网络架构(又称 GPT-3.5 架构),基于大量的语料库使用指 示学习和人工反馈的强化学习(RLHF)来指导模型训练。模型可理解并生成对各种主 题的类似人类的响应,是 AIGC 技术进展的成果。2023 年 3 月 15 日,OpenAI 正式官宣 了多模态大模型 GPT-4,ChatGPT4 将输入内容扩展到 2.5 万字内的文字和图像,较 ChatGPT 能够处理更复杂、更细微的问题。
ChatGPT 提供变革性的用户体验,用户数量飙升。ChatGPT 发布后爆火,仅用 5 天 时间用户量便破百万,推出 2 个月后用户量破亿,访问量从 1830 万增长到 6.72 亿,成 为史上用户增长速度最快的消费级应用程序。最新版的 GPT-4 在 ChatGPT 的 GPT-3.5 基 础上主要提升了语言模型方面的能力,并添加了多模态功能,可以接受图像输入并理解 图像内容,可接受的文字输入长度也增加到 3.2 万 token,在不同语言情景和内部对抗性 真实性评估的表现都显著优于 GPT-3.5,在各种专业和学术基准上已经表现出人类水平, 为用户提供变革性的使用体验。
ChatGPT 带动 AI 潮流,多种相关产品推出。办公领域,微软将 GPT-4 整合到 Office 应用程序,Teams Premium 中接入 Chat GPT 提供人工智能生成章节和字幕实时翻译等 功能;编程领域中,Viva Sales 将利用 ChatGPT 为电子邮件中客户问题生成回复建议, Stripe 使用 GPT-4 扫描商业网站并向客户支持人员提供摘要;软件领域,Duolingo 将 GPT-4 构建到新的语言学习订阅层中,国内百度“文心一言”也正式推出,AI 的潮流开 始遍布国内外多行业。
1.2. OpenAI 模型演进,人工智能向应用拓展
OpenAI 模型可以完成绝大多数文本和图像任务,具有成熟的生产力。根据 OpenAI 的官方介绍,GPT-4可以接受文本和图像的信息,并允许用户指定任何图像或语言任务, 处理超过 25000 个单词的文本。除了在各种标准考试和不同语言情景下都有突出的表现 外,在图像的处理分析上,GPT-4 能够直接阅读并分析带有图片的论文,承担文本、音 频、图像的生成和编辑任务,并能与用户一起迭代创意和技术写作任务,例如创作歌曲、 编写剧本或学习用户的写作风格等。
AIGC 发展改革生产力,已具备多领域应用能力。AIGC 可以利用大量无标注数据 进行自监督学习再利用少量的标注数据进行迁移学习,能够持续生成规模大、质量高、 单位成本低的内容,在生产力上具有革命性的增长。在应用方面,按场景分类 AIGC 已 经较为成熟地应用于文本和代码撰写、图像识别和生成,在影视、传媒、电商、C 端娱 乐领域规模应用,未来将逐步拓展到视频和游戏等其他领域,为各个行业和领域的创新 和发展提供更多可能性。
1.3. Open AI 赋能下游应用,AI+降本增效
以 Azure OpenAI 为例:AI 技术模型全覆盖。AI 技术模型全家桶,包含 GPT4.0 以 及后续版本、DALL-E2、Codex、Embeddings 神经网络、VALL-E、认知学习成长、机器 学习等,可实现 4 种用途:1)企业及客户可利用 Azure OpenAI 全家桶构建自己的大型 预训练 AI 模型;2)利用全家桶对 AI 模型进行数据和参数的微调与提升;3)通过内置全 家桶检测错误与潜在风险;4)利用全家桶实现角色访问控制和企业级云安全合规。
OpenAI+传统搜索引擎=AI 智能搜索引擎。ChatGPT 能生成和理解类人类思维方式 与上下文联系的结果,而传统的搜索引擎只是给出网页的链接,需要用户自己阅读、点 击和判定。无论是知识的获取效率、回答问题的深度,还是交互的延展性,ChatGPT 都 对传统搜索引擎是一种颠覆式进化。
OpenAI+办公软件,以 Office 全家桶与微软 Teams premium ChatGPT 为例。 ChatGPT+Office 三大件 Word、Excel、PowerPoint 可完成从文字创作到可视化全程服务。 ChatGPT 可以根据用户的描述需求自动撰写文档内容,缩短文档的创作时间;根据已形 成文档内容智能推荐文档格式、排版等;并根据用户描述制作个性化 PPT,同时智能生 成朗读语言助力 PPT 演示。Teams Premium ChatGPT 同样具有多样智能服务:1)自动提供实时翻译;2)自动生成文本型会议纪要;3)自动记录发言人员对话和内容;4)根 据讨论上下文自动生成任务等。
2. 云服务器优化配置算力资源,是主要算力供给方式
云计算属于分布式计算,满足各类算力需求。云计算可以通过网络“云”将所运行 的巨大的数据计算处理程序分解成无数个小程序,再交由计算资源共享池进行搜寻、计 算及分析后,将处理结果回传给用户,通过这种方式可以实现随时随地、便捷地、随需 应变地从可配置计算资源共享池中获取所需的资源与架构,包括存储、数据库、服务器、 应用软件及网络等,灵活调配计算机相关算力存储资源。
AI 语言模型扩大算力需求,云计算进一步发挥资源优化配置功效。面对 AI 的需求 提升,云计算可带来 4 个方面的提升: 1.资源共享和优化:云计算允许多个用户共享同一台服务器或一组服务器的计算资 源。这意味着,与每个用户都拥有自己的独立服务器相比,云计算可以通过提高资源利用率来减少服务器的总数量。 2.弹性可伸缩:云计算服务提供了高度的弹性和可伸缩性,使得用户可以根据实际 需求调整所需的计算资源。在计算需求降低时,用户可以减少资源使用,从而减少服务 器的数量。而在计算需求增加时,用户可以快速扩展资源,而无需购买新的服务器。 3.成本效益:云计算通常采用按需付费的模式,用户只需支付实际使用的计算资源。 这种支付模式降低了用户购买和维护服务器的成本,使得更多企业倾向于使用云计算服 务而不是购买自己的服务器。 4.更快的创新和部署:云计算使得企业能够更快地开发和部署新的应用程序和服务。 这减少了对于购买、配置和维护自有服务器的需求,从而抑制了服务器数量的增长。
云计算为 AI 提供算力支持,实现降本增效。由于 ChatGPT 等一系列大规模模型对 算力要求较高,厂商自建足够算力的数据中心需要耗费巨大的成本以及昂贵的后续运维 成本,而云计算服务可以有效节省早期支出,并且大规模的算力集群还具有集群优势以 提升计算性能。OpenAI 的 ChatGPT 和其他关键 AI 产品依赖于微软 Azure 云计算服务, 通过 Azure 的 HPC、弹性、数据存储和计算服务来完成模型计算和算法调试,没有云计 算,ChatGPT 的训练时间将被一再拉长,运用云计算后 GPT-3 等模型的训练成本下降了 80%以上,从首次训练开销 1200 万美元降至 140 万美元。
云算力市场规模持续扩大,下游应用渗透提升。云算力市场根据 Gartner 统计,2021 年以 IaaS、PaaS、SaaS 为代表的全球公有云市场规模达到 3307 亿美元,增速达 32.5%。 其中,IaaS、PaaS、SaaS 市场规模分别同比增长 42.7%、39.3%、23.6%至 916 亿美元、 869 亿美元、1522 亿美元。2021 年亚马逊、微软、阿里云为全球 IaaS 前三厂商,占据 69.54%市场份额,国内厂商阿里云、华为云、腾讯三家合计占全球 17%的市场份额。目 前国内游戏、视频、电商和金融是主要应用领域,医疗、传统工业和政务领域渗透率逐步增加。
AI 与云计算结合,提升大数据分析计算能力。AI 与云计算结合有助于通过自动化 冗余活动、识别、排序和索引各种类型的数据、管理云中的数据事务、识别整个云存储 基础设施中的任何故障,帮助改善数据管理,优化管理流程。例如阿里云推出的飞天智 算平台提供公共云和专有云两种模式,为各类科研和智能企业机构提供强大的智能计算 服务,可将计算资源利用率提高 3 倍以上,AI 训练效率提升 11 倍,推理效率提升 6 倍。 云计算的本质是将计算资源进行集中管理和调度,从而满足不同用户的需求,而这 些计算资源的核心就是服务器。因此,随着云计算需求的提升,服务器数量的提升也是 必然的趋势。AI 为云计算所带来的巨大计算量,将直接带动服务器数量的提升。
3. ChatGPT 引爆算力需求,拉动高端芯片市场扩张
3.1. 人工智能架构以 AI 芯片为基
人工智能 IT 技术栈分为四层架构,算力是基础。人工智能架构由芯片层、框架层、 模型层和应用层四层架构组成。其中,芯片层主要是指人工智能芯片,为整个架构提供 算力基础支撑;框架层主要包括深度学习训练和推理框架平台和数据平台等;模型层主 要是自然语言处理(NLP)、计算机视觉(CV)、音视频、多模态等各种大模型;应用层 则是面向各种应用场景的人工智能专业服务。下游应用体验的升级需要大模型不断调优 迭代,在深度学习框架内进行大规模模型的训练和推理,每一次都对芯片提供的算力基 础提出要求,AI 芯片决定了平台的基础架构和发展生态。
AI 芯片主要有 CPU、GPU、FPGA 及 ASIC,以 GPU 为主的并行计算为 AI 提供 了主要生产力
1)CPU(中央处理器)擅长逻辑控制,用于推理及预测。CPU 主要由 ALU(算术逻 辑单元)、CU(控制单元)与 Cache(临时指令存储器)构成。其中,ALU 由"And Gate" (与门)和"Or Gate"(或门)构成的算术逻辑单元,主要功能是进行二位元的算术运算, 约占 CPU 空间 20%;CU 则负责程序的流程管理。CPU 的执行周期是从内存中提取第 一条指令、解码并决定其类型和操作数,执行,然后再提取、解码执行后续的指令,重 复循环直到程序运行完毕。CPU 具备强大的调度、管理与协调能力,但受限于单行运算 导致算力较低。
2)GPU 图形处理器,并行计算满足强大算力需求。在结构方面,与 CPU 相比, GPU 中同样具备 ALU 与 CU 等架构,但 ALU 数量与体积占比更多,且采用数量众多 的计算单元和超长流水线,具备高并行结构,通过多核并行计算支撑大算力需求,且拥 有更高浮点运算能力,在处理图形数据和复杂算法方面拥有比 CPU 更高的效率,满足 深度学习领域海量数据运算的需求。但 GPU 管理控制能力弱,无法单独工作,需由 CPU 进行控制调用。
3)FPGA 半定制化芯片,无限次编程支持高灵活性。FPGA 称为现场可编程门阵 列,基本结构包括可编程输入输出单元和可配置逻辑块等。基于其结构,用户可根据自 身的需求进行重复编程重组电路,具有高度实时性和灵活性,可以同时进行数据并行和 任务并行计算,在处理特定应用时有更加明显的效率提升,可以实现底层硬件控制操作 技术,为算法的功能实现和优化留出了更大空间。
4)ASIC 全定制化芯片,高速处理速度叠加低功耗表现。ASIC 是为专门目的为设 计的集成电路,为实现特定要求而定制的专用 AI 芯片,能够在特定功能上进行强化, 具有更高处理速度与更低能耗。缺点是研发成本高、前期研发投入周期长,且由于定制 化属性,可复制性一般,缺乏一定灵活性。深度学习算法稳定后,AI 芯片可采用 ASIC 设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。
3.2. GPT 拉动算力提升,带动高算力芯片市场量价齐升
ChatGPT 数据量扩张,算力需求持续增加。历代 GPT 的参数量呈现指数级增长, ChatGPT 的总算力消耗约为 3640PF-days(每秒计算一千万亿次,需要计算 3640 天);GPT4 在 ChatGPT 的基础上增加了图像、视频等交互信息类型,内容容量扩大到 2.5 万字,所需的算力规模远大于单纯的文字交互。OpenAI 首席执行官 Sam Altman 接受公开采访 表示,GTP-5 在 2024 年底至 2025 年发布,它的参数量为 GTP-3 的 100 倍,需要的计 算量为 GTP-3 的 200-400 倍。随着 ChatGPT 的用户和应用范围的持续扩大,数据处理 的压力增大,将提出庞大的算力需求。
算力需求带动高算力芯片市场,AI 芯片市场规模持续扩张。机器所产生的数据量 在 2018 年首次超越人类所创造的数据量,从 2019 年,每年几乎以倍数的幅度来增加, 从 2020 年到 2025 年,全球数据增量将达到 157Zetabytes,5 年 GAGR 高达 89%。庞大 的数据增量,必须运用各种具备高速运算的人工智能芯片来过滤、处理分析、训练及推 理,这将持续带动 AI 芯片,尤其是高算力芯片需求。根据华经产业研究院发布的《2021- 2026 年中国 GPU 行业发展监测及投资战略规划研究报告》,2020 年全球 GPU 行业市场 规模达 254.1 亿美元,预计 2027 年将达到 1853.1 亿美元,复合年均增长率 32.82%,GPU 市场保持高速增长态势。同时根据亿欧智库预测,2025 年我国 AI 芯片市场规模将达到 1780 亿元,2019-2025GAGR 可达 42.9%。
AI 风潮席卷,芯片价值量有望提升。AI 技术的蓬勃发展和广泛应用,导致对高性 能计算能力的需求空前旺盛。AI 芯片作为行业的核心组件,其价格也随之攀升,成为科 技产业的新增长点。随着 AI 模型复杂度的增加和参数量的指数级扩张,对计算能力的 要求不断提高。例如预计在 2024 年底至 2025 年发布的 GPT-5,其参数量将是 GPT-3 的 100 倍,所需算力为 GPT-3 的 200-400 倍。由于高性能 AI 芯片在满足这种日益增长的 算力需求方面具有不可替代的作用,算力快速增长需求下,芯片供给的不确定性有望提 升芯片价格提升。
3.3. 构建推理/训练服务器需求计算模型,测算未来空间广阔
算力紧缺,ChatGPT 频繁下调提问限制次数。鉴于使用人数过多,GPT-4 提问上限 次数先后从每 4 小时的使用上限从 100 次下调到 50 次,近日 ChatGPT Plus 又一次将 GPT-4 提问次数下调至每 3 小时 25 次,同时预告再会继续下调提问次数。 GPT-4 发挥预期效果需服务器数量与芯片所提供算力支撑。GPT4 推理与运算发挥 预期能力所需服务器数量主要依赖于 2 个核心变量,模型参数与训练/推理 Token 量, 不考虑 GPT4 当前回答次数限制与图像处理功能,在峰值容纳一切原则下,计算框架大 致如下: 推理所需服务器=每秒处理峰值 Token 所需 FLOPS/(一台服务器提供的 FLOPS*推 理下 FLOPS 利用率); 训练所需服务器=规定时长内训练完所有 Token 所需 FLOPS/(一台服务器提供的 FLOPS*训练过程 FLOPS 利用率)
OpenAI 官方尚未完全公开 GPT4 数据,根据 the Decoder 报告,此次 GPT-4 是模型 参数数量为 1 万亿(GPT3 参数为 1750 亿);据硅谷猜测,GPT-4 用于训练数据量为 9 万亿 Token。
基于英伟达 A100 进行测算,GPT4 发挥预期能力下推理过程所需服务器数量约为 6652 台。我们通过单个模型参数单个 token 所需要的 FLOP 次数、模型参数、每秒处理 token 数量、服务器所需 GPU 数量(按照 DGX A100 进行测算)、单个 GPU 峰值 FLOP 次数以及利用率为 21.6%进行测算,得到推理所需服务器结果。
中关键假设为每秒处理 token 数量,其测算过程主要为每日提问人数*每人提问 数量*每个问题回答字数,同时按照中英文翻译比重 1.6:1 为基准,在每个单词 token 为 1.3 前提下计算,得到每秒处理 177 万 token。且当前数据建立在 GPT4 提问次数受限的 现实条件与 OpenAI 网站 2 月份日活数据下,等待 GPT4 发挥预期功能,开放图像处理 能力,日活、提问数量、回答字数等假设量将迅速增长,所需服务器仍存在增长空间。
在 6 个月训练时间假设下 GPT4 训练需要服务器数量为 1391 台。同样根据通过单 个模型单 token 所需要的 FLOP 次数、模型参数、每秒处理 token 数量、服务器所需 GPU 数量(按照 DGX A100 进行测算)、单个 GPU 峰值 FLOP 次数以及利用率为 46.2%进行 测算,得到推理结果。
测算过程关键量仍在每秒训练 Token 量,这取决于训练时间。OpenAI 在 6 至 8 个 月之前就开始训练 GPT-4,在总数 9 万亿 Token 量+6 个月训练时间假设下,平均每秒训 练量为 578,704Token。根据一台服务器每秒提供的 FLOPS 得出训练所需服务器数量。
未来大规模参数模型持续叠加算力需求,算力供需缺口亟待高性能芯片补充。考虑 过去 5 年中模型参数呈指数增长,LLM(大语言模型)每次迭代都意味着模型训练量与 推理量的指数级增长。随着算力时代到来,未来对服务器数量与芯片算力均存在巨大需 求,市场空间难以探底。
4. 算力时代凸显芯片价值,国产芯片仍处追赶阶段
4.1. AI 服务器依赖高性能芯片供给
算力时代依托 AI 服务器,浪潮信息服务器蝉联国内第一。根据 IDC 最新发布的《中 国加速计算市场(2021 年下半年)跟踪报告》,2021 全年浪潮信息 AI 服务器中国市场 占有率达 52.4%。自 2017 年以来,浪潮信息已连续 5 年保持中国 AI 服务器市场份额超 过 50%,全球范围内,人工智能服务器市场规模达 156 亿美元,约合人民币 1006 亿元, 而浪潮信息市场占有率达 20.9%,保持全球市场第一。
AI 服务器核心在于高性能芯片。参数规模、训练数据随着模型多模态发展呈现量 级增长,而消化、处理数据的能力,即算力,才是制约模型发挥与其能力的关键因素。 在满足算力的最终诉求下,相较于大量叠加服务器台数,提升算力芯片性能同样不可或 缺。以英伟达 GPU 芯片 H100SXM 为例,FP16 Tensor Core 算力为 1979TFLOPS,一台 搭载 8 片 H100SXM 的服务器算力是之前所假设的 GPUA100 服务器 50 倍。 GPU 占据 AI 芯片大类市场,全球应用最为广泛。AI 芯片在不同领域对于指标的 需求不同。训练过程中,GPU 由于具备并行计算高度适配神经网络,支持高速解决巨额 工作量;推理过程中仅稀疏结构支持一项便能带来 2 倍性能提升。由于 GPU 可兼容训 练和推理,高度适配 AI 模型构建,在全球 AI 芯片中应用最为广泛。2021 年中国 AI 芯 片市场中,GPU 占比达到 91.9%。据 IDC 数据,预计到 2025 年 GPU 仍将占据 AI 芯片 8 成市场份额。
英伟达主要 GPU 产品技术指标表现领先,是全球 GPU 算力芯片龙头。英伟达的 GPGPU 目前在全球应用最为广泛,其 GPU 产品的典型代表 V100、A100、H100GPU 分 别采用 Volta、Ampere、Hopper 架构。A100GPU,INT8 算力达 624TOPS;H100GPU, INT8 算力达到 1513TOPS。此外,2006 年英伟达发布的 CUDA 平台是现今全球应用最 为广泛的 AI 开发生态系统。通用 GPU 与 CUDA 生态系统奠定英伟达引领 AI 芯片的根 基。当前全球主流深度学习框架均使用 CUDA 平台,2021-2022 年全球独立 GPU 市场 中英伟达份额基本维持在在 80%左右。
服务器同样依赖芯片供给,把握芯片才能把握算力时代。Counterpoint 发布的报告 显示,2022 年服务器 CPU 的市场份额中,英特尔占超七成,位列第一,AMD 拿下约两 成,排名第二,两家美企联手占据 9 成市场,而浪潮信息需要的 AI 服务器芯片也来自 美企英伟达。尽管自 2019 年起,浪潮信息前五大供应商的名字均隐去,但历史数据显 示,英特尔仍稳坐最大供应商之席。上游芯片高度依赖外部企业成为浪潮信息发展的关 键制约因素,尤其在美国商务部 3 月份将浪潮列入实体清单后,上游芯片进行国产替代 显得更为紧迫。算力时代背景下,自主掌握高端芯片技术成为兵家必争之地。
4.2. 主流芯片限制进口,利好国产化芯片自主发展
海外龙头垄断高端芯片技术,国产芯片仍处追赶阶段。以 GPU 细分赛道来看,目 前国内自研 GPU 的领军企业主要是寒武纪、景嘉微、华为昇腾等,其中成立最早的是 景嘉微,主打产品有 JH920 独立显卡。行业内专家称,从产品参数来看,景嘉微的 JH 920 的性能与英伟达在 2016 年发布的 GTX 1050 相仿,虽然仅相差 6 年,但考虑到模型 与算力发展之迅速,整体而言国产 GPU 的现状并不算乐观,虽然在特殊领域可满足部 分的需求,但是在中高端领域及硬核的算力需求仍存着较长的追赶道路。
主流的 AI 芯片限制进口,国内 AI 产业发展面临阻碍。2022 年 10 月美国对中国半 导体进行三方面限制,在 AI 领域限制中国获取等效 8 Int 600 TOPS 算力的芯片。英伟 达针对中国市场推出了符合新规的 A800 芯片,相比 A100 芯片,A800 在搭载 2 个 GPU 的 NVIDIA”NVLink”桥接器连接下,互联标准由 600GB/s 降为 400GB/s。面临 V100/A100/H100 芯片都进口受限,互联标准下降,英伟达等头部企业维持垄断地位,国 产大模型算力需求和国内 AI 产业发展面临阻碍。
自主可控趋势下,利好国内服务器供应厂商。近年来中美之间的贸易摩擦不断升级, 导致双方在技术领域的竞争愈发激烈。例如美国政府对华为等中国科技企业实施了一系 列制裁措施,试图限制这些企业获取关键技术和先进芯片。这些制裁措施无疑给中国高 端芯片产业的发展带来了巨大压力。目前自主可控进程中,国内企业在设计、制程、封 装和测试等各个环节取得了显著进步,部分产品性能已经接近国际先进水平。另一方面, 国家和地方政府也在积极出台各种政策措施,支持芯片产业的创新和发展,培育具有国 际竞争力的芯片企业。目前 ChatGPT 引爆的 AI 潮将拉动云服务器数量的增长,其国内 相关供应厂商将有望受益于下游 AI+级应用所带来的算力需求增长,国内云服务器与算 力相关厂商有望直接受益。
5.投资分析
我们看好算力芯片及服务器需求剧增下相关零组件的成长空间。 CPU、GPU 是服务器最主要的部件,是衡量服务器性能的首要指标,需具有大数 据量的快速吞吐、超强的稳定性、长时间运行等能力,由算力芯片提供算力支持。根据 IC Insights 统计,2026 年预计全球 CPU 出货量达到 29 亿颗,市场规模达到 1336 亿美 元。行业龙头集中效应显著,Intel 占据服务器 CPU 市场 80%以上的份额,国内厂商与 其技术差距较大,关注重点公司的技术突破进展。
内存、硬盘是服务器中其他的重要部件,内存是与 CPU 进行通信的桥梁,硬盘是 服务器数据的仓库。计算机中的所有程序都在内存中执行,服务器的硬盘需要满足速度 快和高可靠性,内存和硬盘都对服务器的性能有较大的影响。据 Yole 统计,存储器总体 市场空间将从 2021 年的 1670 亿美元增长至 2027 年的 2630 亿美元,年复合增长率为 8%。市场呈现呈垄断竞争格局,DRAM 市场 CR3 超 90%,目前国内厂商与国外的技术, 规模等差距较大,自主产品亟待突破。
电源负责各个模块的供电和电路控制,由电源管理芯片实现。模拟芯片市场呈现国 外企业主导的竞争格局,据 IC Insights 数据,21 年中国模拟 IC 市场需求占据全球规模 的 43%,为最大需求市场。海外占据主导地位,根据 MPS 预测,MPS 在服务器主板 CPU/GPU 电源管理芯片领域可触及的市场规模达 20 亿美元,但国内厂商的自给率极低, 成长潜力可期。
服务器芯片经由封装形成模块,进入整机组装环节。根据 Yole 数据预计,2026 年 先进封装全球市场规模 475 亿美元,2020-2026ECAGR 约为 7.7%。目前,全球封测产业 正逐步向中国大陆转移,内资企业与外资厂商技术差距持续缩小,中国台湾、中国大陆 和美国占据主要市场份额,同时积极布局 Chiplet 等先进技术。
服务器其他零部件包括 PCB、连接器和接口等,成本占比低于 20%。 PCB 在高端服务器中的应用主要包括背板、高层数线卡、HDI 卡、GF 卡等,其特 点主要体现在高层数、高纵横比、高密度及高传输速率,2016 年以来,中国大陆 PCB 产 值规模在全球占比均超 50%。 服务器内部通过连接器实现印刷电路板和电子元件之间的连接,根据 Bishop& Associates 数据,2019 年全球连接器公司以欧美和日本企业主导,全球前十连接器厂商 市场份额合计为 60.8%,市场集中度较高。
服务器通过接口芯片以实现内外数据交换。目前全球接口芯片龙头厂商依旧为 TI、 美信及凌力尔特等,从 DDR4 世代开始,全球内存接口芯片厂商仅剩澜起科技、瑞萨(原 IDT)和 Rambus 三家厂商。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。