当前位置:首页|资讯|ChatGPT

DPU行业专题报告:ChatGPT推高算力需求,DPU支撑算力效率提升

作者:未来智库发布时间:2023-03-03

(报告出品方/作者:民生证券,吕伟、郭新宇)

1 DPU 有望成为“第三颗主力芯片”

1.1 算力提升与数据增幅呈现剪刀差,DPU 需求凸显

算力提升与数据增幅呈现剪刀差,DPU 可有效减少算力损耗。在当前数据增 幅大幅提升的大背景下,CPU 性能的增速减缓,成本大幅增加,算力供给与需求 形成剪刀差,CPU 性能提升的难题亟待解决,以 DPU 为代表的异构计算具备将部 分通用功能场景化、平台化的特点,实现算法加速并减少 CPU 功耗,有助于运营 商、云计算厂商和互联网厂商对数据中心的升级改造,减少高达 30%的数据中心 算力税。

DPU(数据处理芯片 Data Process Unit)被认为是继 CPU 和 GPU 之后的 “第三颗主力芯片”。DPU(Data Processing Unit)是新近发展起来的一种专用 处理器。2020 年 NVIDIA 公司发布的 DPU 产品战略中将其定位为数据中心继 CPU 和 GPU 之后的“第三颗主力芯片”。随着芯片业制造工艺的不断精进,以及 数字化技术如 AI 的发展,芯片行业不断推陈出新。DPU 作为新型芯片的一种,它 的出现是异构计算的一个阶段性标志。

DPU 是以数据处理为核心的专用数据处理单元,是对传统计算资源的网络、 安全和存储的卸载平台。传统数据中心以 CPU 为主要数据处理单元,通常庞大的 基础架构的运行已占据相当一部分 CPU 核,给数据处理任务带来非常大的挑战。

发展背景:2013 年雏形已现,2020 年迎来行业认可

DPU 其实在行业内已经孕育已久,从早期的网络协议处理卸载,到后续的网 络、存储、虚拟化卸载。 根据摩天轮数据,Amazon 的 AWS 早在 2013 年研发了 Nitro 产品,将数据 中心开销(为虚机提供远程资源、加密解密、故障跟踪、安全策略等服务程序)全 部放到专用加速器上执行。Nitro 架构采用轻量化 Hypervisor 配合定制化的硬件, 将虚拟机的计算(主要是 CPU 和内存)和 I/O(主要是网络和存储)子系统分离 开来,通过 PCIe 总线连接,节省了 30%的 CPU 资源。 2016-2017 年,阿里云就提出 X-Dragon 系统架构,其核心是 MOC 卡,且 有比较丰富的对外接口,也包括了计算资源、存储资源和网络资源。MOC 卡的核 心 X-Dragon SOC,统一支持网络,I/O、存储和外设的虚拟化,为虚拟机、裸金 属、容器云提供统一的资源池。

根据网易、芯东西数据,2019 年,美国一家初创公司 Fungible 推出产品 F1 DPU,第一次提出了 DPU 的概念。 2020 年 10 月,英伟达将基于 Mellanox 方案的 Smart NIC 命名为 DPU, 重新定义了 DPU 的概念。2020 年,英伟达公司发布的 DPU 产品战略中将其定位 为继 CPU 和 GPU 之后数据中心的“第三颗主力芯片”,掀起了行业热潮。

1.2 以降本增效为目标,DPU 直击行业痛点

DPU 要解决的核心问题是基础设施的“降本增效”,即将“CPU 处理效率低 下、GPU 处理不了”的负载卸载到专用 DPU,提升整个计算系统的效率,降低整 体系统的总体拥有成本(TCO)。 CPU 资源负载过大为行业痛点,智能网卡(Smart NIC)为 DPU 前身。在通信领域,伴随着 5G、云网融合时代的到来,以及虚拟交换等技术的引入,基于 服务器的网络数据平面的复杂性急剧增加。海量的数据搬运工作被 CPU 承担,导 致网络接口带宽急剧增加,CPU 资源负载过大,大大影响了 CPU 将计算能力释放 到应用程序中,为了提高主机 CPU 的处理性能,Smart NIC(智能网卡)将部分 CPU 的网络功能(如 IP 分片、TCP 分段等)转移到网卡硬件中,起到了加速运算 的目的,其可视为 DPU 的前身。新一代的 DPU 的优势在于不仅可以作为运算的 加速引擎,还具备控制平面的功能,可以更高效的完成网络虚拟化、I/O 虚拟化、 存储虚拟化等任务,并彻底将 CPU 的算力释放给应用程序。

功能方面,DPU 具备集成基础业务、网络数据加速、零信任保护、算存分离等 多种功能。可有效解决当前 CPU 算力无法完全作用到应用程序,数据处理速度慢, 授信导致的数据泄露,存储方案兼容性差等诸多问题。具体来说: 1.DPU 实现了业务与基础设施的操作分离。DPU 将基础设施任务从 CPU 转 移至 DPU,释放 CPU 的资源,使更多的服务器 CPU 核可用于运行应用程序,完 成业务计算,从而提高服务器和数据中心的效率。 2.DPU 卸载网络数据,实现性能提升。DPU 针对云原生环境进行了优化,提 供数据中心级的软件定义和硬件加速的网络、存储、安全和管理等服务。根据程序 员客栈数据,红帽 Red Hat 的容器化云平台即服务(PaaS)0penShift 上,借助 DPU 优化数据中心资源利用率,将网络相关的数据处理(如 VxLan 和 IPSec 等)卸载 到 DPU 加速执行,在 25Gb/s 网络条件下,Open Shift 部署 DPU 用来加速,可 以只用 1/3 的 CPU 占用率来达到 25Gb/s 性能,而在 100Gb/s 网络条件下,未 部署 DPU 的场景将达不到 100Gb/s 网络线速,DPU 可以带来 10 倍的性能优势。 3.DPU 可以提供零信任安全保护,零信任(Zero Trust)是一种以安全性为中 心的模型,其基于以下思想︰企业不应对其内外的任何事物授予默认信任选项。零 信任可以减少数据泄露、拒绝未授权的访问,因此在数据安全方面价值很大。

方式:DPU 通过将控制平面由主机下放到了 DPU,来为企业提供零信任保 护,实现主机业务和控制平面的完全隔离,数据将无法进行穿透,保证安全性。 DPU 的出现相当于为每个服务器配备了一台“计算机前的计算机”,以提供独立、 安全的基础设施服务,并与服务器应用域安全隔离。如果主机遭受入侵,安全控制 代理与被入侵主机之间的 DPU 隔离层可防止攻击扩散至整个数据中心。这样 DPU 就解决了企业不愿直接在计算平台上部署安全代理的情况。通过在完全隔离于应 用程序域的DPU 上部署安全代理,企业不仅能获得对应用程序工作负载的可见性,还能在其基础设施中执行一致的安全策略。

4.DPU 助力实现“算存分离”,BlueField SNAP 技术方案通过在服务器系 统的数据入口处引入计算资源,在 DPU 上独立实现面对应用需求的存储方案,帮 助存储厂商在数据中心中低成本地灵活部署、升级高级存储协议,而完全不需要对 现有软件栈进行任何更改。存储厂商可以把自家团队为各行业应用开发的开放系 统的直连式存储(DAS)、纵向扩展(Scale-up)、横向扩展(Scale-out)、超融合架构 (Hyperconverged)等存储解决方案,零开销地推广到各个应用领域的现有业务处 理平台和数据中心基础架构中,而所有的安全加密、数据压缩、负载均衡等复杂又 必须的功能则完全由 DPU 透明地卸载。存储行业的革新算法和实现,可以在 DPU 架构中,独立于服务器操作系统进行部署。DPU 技术帮助存储厂商实现真正的“算 存分离”,完全发挥自家产品的技术优势,打通最高效服务应用需求的通路。

1.3 依托智能网卡化茧成蝶,FPGA 及混合架构路线为主流

Smart NIC 可以被看作 DPU 的前身,包含基于多个 CPU 内核的 ASIC 和基 于 FPGA 的智能网卡等类型。 随着技术的发展,FPGA、ASIC 和 SoC 也在相互融合,它们之间的界限越来 越模糊。例如,随着 FPGA 的发展,现在很多 FPGA 内部集成了硬核,这种硬核 就是传统意义上的 ASIC;从硬件可编程的角度来看,SoC 与 FPGA 相反,它可以 看作 ASIC,这里的 ASIC 主要指硬件不可编程,而不是单指特定功能芯片。 NIC 代表网络接口卡。实际上,NIC 是一种插入服务器或存储盒以连接到以 太网网络的 PCIe 卡。基于 DPU 的 Smart NIC 超越了简单的连接,在基础 NIC 的 情况下,在 NIC 上实现了 CPU 必须执行的网络流量处理。 基于 DPU 的 Smart NIC 可以是基于 ASIC、FPGA 和 SoC 的。在这些不同 的路线之间,在成本、编程的易用性和灵活性方面存在各种权衡。1)ASIC 具有 成本效益,可能提供最佳性价比,但灵活性有限。

基于 ASIC 的 NIC,如 NVIDIA ConnectX-5,可以具有相对简单的可编程数据路径。最终,该功能基于 ASIC 中 定义的功能而受到限制,这可能会阻止支持某些工作负载。2)相比之下,FPGA NIC(如 NVIDIA Innova-2 Flex)具有高度可编程性。只要有足够的时间和精 力,就可以在可用门的约束范围内相对高效地支持几乎任何功能。然而,众所周知, FPGA 编程困难且价格昂贵。3)对于更复杂的用例,SOC(如 Mellanox Blue Field DPU–可编程智能网卡)提供了似乎是最好的基于 DPU 的 Smart NIC 实现 选项:良好的性价比、易于编程和高度灵活。

1.4 DPU 核心价值在于算力的卸载释放与扩展,异构算力 互联推动 DPU 多领域高速发展

DPU 的核心价值在于算力的卸载、释放与扩展。

1.算力卸载:即利用 DPU 集成一部分数据处理的基本功能,然后将这些功能 从 CPU 中卸载下来,以提升 CPU 针对部分应用的算力。DPU 的部分价值体现在 节省这部分算力的成本-DPU 自身的成本。因此 DPU 节省的算力越多,或 DPU 的 成本越低,其带来的价值越高。与此同时,由于 DPU 的专用化,DPU 将部分涉及 网络、存储、安全、管理相关的控制功能卸载之后,还将使得业务性能得以提升, 因此 DPU 的另一部分价值在于其可为业务节省的时间与使用体验。 根据技术邻数据,在大型数据中心的场景之中,DPU 的算力卸载功能可用于 减少数据中心税。由于在数据中心流量处理占了计算 30%的资源,AWS 将这些还 未运行业务程序,先接入网络数据就要占去的计算资源称为“数据中心税(Datacenter Tax)”。 在数据安全场景中,DPU 由于其独立、安全的架构,可将部分加密、解密算 法固化在 DPU硬件之中,以物理隔离的方式解决用户在海量数据的数据安全问题, 为外部网络业务租户之间提供额外的安全层。

2. 根据中国信通院数据,算力释放:算力释放无需 CPU 介入多次访问内存 和外设,避免不必要的数据搬运,拷贝和上下文的切换,直接在网卡硬件上对数据 完成处理并交付给最终消费数据的应用。传统以 CPU 为中心的计算机体系结构在 处理数据的过程中需要多次在内核和应用之间拷贝和访问数据,带来的是极大的 性能损耗。以数据为中心的 DPU 架构则可以有效改善 CPU 过度参与数据处理的 问题,在数据处理的过程中不需要 CPU 参与,直接将数据送达应用、相关的 GPU 或者存储设备,能够有效避免性能瓶颈和由于 CPU 负载过大而引发的异常。 DPU 架构和技术,使服务器上运行的业务应用和操作系统内核,用简单的本 地存储访问 API,就能实现对分布式、超融合或软件定义存储系统的高效透明访 问。存储厂商可以把为各行业应用开发的直连式存储(DAS)、纵向扩展(Scale-up)、 横向扩展(Scale-out)、超融合架构(Hyperconverged)等存储解决方案,零开销地 推广到各个应用领域的现有业务处理平台和数据中心基础架构中,而所有的安全 加密、数据压缩、负载均衡等复杂又必须的功能则完全由 DPU 透明地卸载。存储 行业的革新算法和实现,可以在 DPU 架构中,独立于服务器操作系统进行部署。 DPU 技术帮助存储厂商实现真正的“算存分离”,完全发挥自家产品的技术优势, 打通最高效服务应用需求的通路。

3.算力扩展:算力扩展即通过有效避免拥塞消除跨节点的网络通信瓶颈,显著 降低分布式应用任务周期中的通信耗时占比,在大规模的集群维度提升计算集群 的整体算力。为了提升算力,业界在多条路径上持续演进。通用 CPU 已很难继续 通过提升单核单线程的性能和扩展片内多核的方式来大幅提升算力。单核芯片的工艺提升至 3nm 后,发展放缓;通过叠加多核提升算力,随着核数的增加,单位 算力功耗也会显著增长,当 128 核增至 256 核时,总算力水平无法线性提升。在 计算单元的工艺演进已经逼近基线,为了满足大算力的需求,通过分布式系统,扩 大计算集群规模,提升网络带宽,降低网络延迟成为提升数据中心集群算力的主要 手段。 随着计算机视觉,自然语言处理,自动驾驶等场景人工智能应用的落地和快速 增长,应用对海量算力的需求以指数级别增长,这对基础设施提出了大规模、分布 式、高性能的挑战。计算网络,典型代表为 HPC+等高性能业务,低时延是其的极 致追求,之前采用 InfiniBand 专网。但随着 RoCE 技术的深入发展,Ethernet 在 计算网络中的应用也逐渐普遍。RDMA 技术通过消除多 GPU 跨节点通信的网络 瓶颈,显著降低了训练任务整个周期中的通信耗时占比,提高了 GPU 集群计算资 源利用率和训练效率,也为集群横向扩展到更大规模时的线性加速比提供了保证。

1.5 DPU 带动异构算力互联,应用市场涵盖高新技术产业 多领域

异构算力互联即为 GPU、FPGA、ASIC 或其它加速卡与 CPU 之间的数据连 接。在 CPU 与加速卡之间,以及加速卡之间形成的芯片互联技术被更多的采用, 虽然 PCIe 有着非常通用的标准化设计,但带宽有限将会产生瓶颈。以 CXL 和 GenZ 为代表的等下一代互联技术取得快速发展,DPU 作为各种高速互联协议融合的 沙盒,最适合成为灵活的高速互联载体,通过采用和扩展“以内存为中心”的互联 协议,将带来在单个机箱外部扩展亚微秒级延迟技术的机会,为下一代计算架构创 新创造可能性。

伴随信息化建设与应用的而深入,市场持续高涨,DPU 产业在电信、互联网、 智能驾驶、AI 服务器及其他行业应用需求不断增长。1)在电信领域,三大运营商 均积极布局,推动产品验证,并提出与产业链上的厂商推动 DPU 产业发展的合作 意愿。2)在互联网领域,随着云计算、云原生等业务场景的发展需求,DPU 作为 数据中心演进的焦点,受到各大云厂商的广泛关注。头部厂商纷纷投入资源尝试自 研或者战略合作,降本增效,实现效益的最大化。3)在智能驾驶领域,国内外芯 片厂商加速布局智能驾驶,不断提升研发效率,为 DPU 的市场发展奠定基础。4) 针对 AI 服务器及其他领域层面,在数字经济和“东数西算”等政策影响下,中国 AI 服务器、金融、终端政企及其他领域持续高速发展,对算力的需求不断增加,传统 的技术已无法满足当前业务的发展需求,DPU 能够提供成熟的硬件加速方案,提 升整个系统的效率,为 AI 服务器、金融及其他领域的发展提供技术支撑,全面推进 DPU 产业未来的发展进程。

2 DPU 行业格局:海外巨头暂时领先,国产厂商蓄 势待发

DPU 行业市场集中度较高。根据头豹研究院数据,2020 年国内 DPU 市场中, 国际三大巨头英伟达,博通,Intel 的份额分别达到 55%、36%、9%。

国际上,Nvidia, Intel, Xilinx,Marvell, Broadcom, Pensando, Fungible, Amazon, Microsoft 等多家厂商在近 2-5 年内均有 DPU 或相似架构产品生产, 较国内相对较早。国内厂商中,华为,阿里,百度,腾讯也在近几年针对自身服务 器进行自研与外购 DPU,针对的主要功能在于数据,存储与安全方面。

2.1 英伟达:具备先发优势,其 BlueField 系列芯片已到达 第三代

BlueField 2 搭载 8 颗 64 bit 的 ARM A72 CPU 内核,2VLIM 加速器和 ConnectX6Dx 智能网卡,可以提供双端口最高 100Gbps 和单端口 200Gbps 的 网络连接。Blue Field 可以快速有效地捕获、分析、分类、管理和存储海量数据, 实现 RDMA/RoCE、DPU Direct、弹性存储、分块存储加密和恶意外部应用自动 检测等功能,从而实现单颗 DPU 芯片对 125 个 CPU 内核的释放。BlueField2X 在此基础上集成了 2021 年 5 月发布的 7nm 级 Ampere 架构。 GPU 和第三代 Tensor 内核,可通过 AI 加速数据中心的安全、网络连接、数 据存储等任务。此外,英伟达还发布了面向开发者的平台 DOCA SDK,通过集成 Ampere GPU 和 BlueField2 DPU 优化 EGXAI 平台,向流媒体、智能驾驶、医疗 等终端场景扩展。BlueField 3 已在 2022 年发布。

根据深科技数据,英伟达预计 BlueField4 将于 2023 年发布,预计性能可提 升 600 倍,达到 75/400TOPS,400Gbps,吞吐量有望较 BlueField2 提升 600 倍。英伟达希望凭借 GPU 和 Mellanox 智能网卡技术壁垒的协同效应,再辅以 Arm 处理器整合协同后的性能提升,有望进一步抗衡英特尔/AMD 的 x86CPU 体 系。

2.2 星云智联:首款 DPU 产品 NebulaX D1055AS 于 2021 年发布

根据《2021-2022 年中国人工智能创投数据报告》数据,星云智联创立于 2021 年 3 月,汇聚了来自硅谷、以色列、加拿大等地 ICT 领域顶尖专家,专注于数据 中心基础互联通信架构和 DPU 芯片研发,致力于构建数字世界算力的智能连接和 开放生态,让云计算和数据中心成为构建未来数字社会的坚实基础。 根据星云智联官方数据,星云智联首款 DPU 产品 NebulaX D1055AS 已于 2021 年 7 月发布,该产品是国内首款全硬加速、超强转发、极简运维的 DPU 产 品。NebulaX D1055AS 聚焦云计算的裸金属、虚机、容器等场景,实现网络与 存储卸载与加速,提升业务性能,节省主机 CPU,简化 IaaS 运维。可广泛用于互 联网、公有云、运营商、政企与行业的云基础设施。产品为 PCIe 插卡形态,安装 于标准服务器内运行,产品功能包括数据面和管控面两部分。

根据星云智联官方数据,管控面采用通用的 CPU+Linux 架构,其中 DPU OS 上运行了 OVS 控制面、弹性块存储客户端 EBS-Client、管理监控等软件,支持带 外管理网口,通过管理网络对接云平台。这个架构拥有极好的软件生态兼容性,用 户可按需安装部署相应的管理和应用软件,比如 OpenStack Agent,K8S Kubelet 等 IaaS/PaaS 应用,也可移植现有云基础设施中的软件到 DPU OS 上运行。这种 开放的管控面架构,简化了 DPU 与用户云管控平台集成,加速定制化 DPU 新功 能开发上线。

2.3 大禹智芯:Paratus 2.0 具备强大的软件开放性

根据《未来网络白皮书》数据,大禹智芯成立于 2020 年,其创始及核心团队 由国内外互联网、云计算头部公司以及传统网络、芯片、安全头部厂商的资深专家 组成,拥有 DPU 设计与研发及 DPU 大型商业化部署的成功经验。 Paratus 1.0 作为大禹智芯 DPU 的第一条产品线产品,采用 ARM SoC 作为 主处理单元,提供多个 10Gbps/25Gbps 的业务网络接口,同时为了方便用户管 理,单独设置了 RJ45 管理口。 Paratus 2.0 作为大禹智芯 DPU 的第二条产品线产品,已于 2022 年 10 月发 布,采用 ARM SoC + FPGA 的硬件架构,在 Paratus 1.0 产品基础上,利用 FPGA 对可固化逻辑的数据包实现高性能转发,提供多个 10G/25G、100G 的业务网络 接口。

大禹智芯 DPU 产品 Paratus 2.0 具备强大的软件开放性,支持 VirtIO 来增强 虚拟化环境下的适配性,能够灵活呈现大规模主机侧功能,可以实现包括 OVS 全 卸载、存储客户端(Storage Initiator)的全卸载及 NVMe 模拟等多种功能,还 能为存储服务端(Storage Target)提供数据处理服务加速。此外,Paratus 2.0 的自研高性能网络传输协议可进一步支持 RDMA 应用;大禹智芯充分考虑了用户 使用管理需求,在 Paratus 2.0 系统产品中还提供了云管平台对接的插件、独立的 BMC 模块,使用户能方便地实现云环境下业务的自动化部署、带外管理能力及与 服务器更好的联动,达到 Paratus 2.0 在实际使用中与用户管控平台的有机结合。

2.4 云脉芯联:打造自主研发多场景 RDMA DPU 产品

根据腾讯开发者社区数据,云脉芯联创立于 2021 年 5 月,是一家专注于云数 据中心网络芯片产品研发与技术创新的高科技创新企业。2022 年 5 月 31 日,云 脉芯联正式发布自主研发的国内首款多场景 RDMA 智能网卡(DPU)产品—— xFusion50。xFusion50 是云脉芯联成功自主研发的第一款产品,也是国内首款实 现包括支持端到端拥塞控制完整 RDMA 功能的 DPU 产品,xFusion50 基于硬件 实现的可编程拥塞控制算法能够有效避免网络拥塞,充分发挥 RDMA 技术的低延 迟和高性能,支持云计算、高性能计算、AI、存储集群全场景部署。xFusion50 产 品具有以下核心亮点: 第一,支持可编程拥塞控制算法,可编程拥塞控制算法是实现端到端无损网络 的关键技术;还可以通过开放可编程的底层网络接口,可根据客户的组网特点和上 层业务的需求,灵活支持多种拥塞控制算法,最大化业务的流量吞吐。

第二,通过自主研发 HyperDirect 技术支持 GPU Direct RDMA 为跨计算节 点的 GPU 实现远程内存直接访问,跳过 CPU 以降低时延、提升带宽,提升分布 式异构算力集群的整体效能。第三,支持网络/存储全场景卸载加速,支持 vSwitch 全卸载,实现云上 VPC 网络全功能;支持存储卸载,对接分布式存储 NVMe-oF(TCP/RDMA),充分释 放宿主机 CPU 资源。并通过支持 VirtIO 实现弹性网络和弹性存储,满足云上用户 无缝迁移和快速恢复的业务诉求。

2.5 芯启源:自主知识产权,可扩展 Chiplet 等方向

根据《未来网络白皮书》数据,芯启源成立于 2015 年,聚焦网络通讯、5G 和云数据中心等众多先进领域,客户包括且不限于运营商及二级运营商、路由器交 换机设备商、OTT 及互联网厂商、网络安全厂商、5G/6G 设备商等。 芯启源具有完全自主知识产权的 DPU 芯片。芯启源 DPU 较传统智能网卡提 供了更大的处理能力、更强的灵活性、可编程数据包处理、可扩展 Chiplet(小芯片) 结构等特性。采用 NP-SoC 模式进行芯片设计,通用 ARM 架构结合高度优化面 向数据包的 NP 芯片(RISC-V 内核)、多线程的处理模式,使其可以达到 ASIC 固 化芯片的数据处理能力,同时考虑到了全量可编程、灵活可扩展的属性,用以支持 400Gbps 及以上的性能目标、低功率且具有成本效益等。

2.6 中科驭数:目前已开始第三代 DPU 芯片研发

根据搜狐数据,中科驭数成立于 2018 年,聚焦专用数据处理器的研发设计, 基于自研敏捷异构 KPU 芯片架构以及 DPU 软件开发平台 HADOS,公司自主研 发了业界首颗融合高性能网络与数据库一体化加速功能的 DPU芯片和标准加速卡 系列产品,可广泛应用于超低延迟网络、大数据处理、5G 边缘计算、高速存储等 场景,助力算力成为数字时代的新生产力。 在 DPU 产品的研发迭代方面,中科驭数于 2019 年流片了第一代 DPU 芯片 K1,第二代 DPU 芯片 K2 也于 2022 年初成功投片,目前已开始第三代 DPU 芯 片 K2 Pro 的研发工作;2021 年 9 月,中科驭数首发 DPU 加速卡产品,其时延达 到业界领先的 1.2 微秒。另外也有 DPU 存储加速卡、DPU 数据计算加速卡等产品 和解决方案在研发进程中。在产品核心技术特色方面,中科驭数的 DPU 芯片创新 性地采用软件定义加速器技术路线,实现了软硬协同的 DPU 设计方案。

高效的异构众核 DPU 架构,基于软件定义加速器路线,研发了异构众核 DPU 芯片设计方法,解决了多核互联、计算调度、指令控制等核心问题。 超高带宽网络协议处理,研发专用网络协议处理核和大数据分析处理核,解决 了软件解析网络包协议解析和数据处理的瓶颈,大大提升服务器间通信效率, 提升数据中心水平扩展能力。统一的虚拟化硬件平台,针对数据中心网络、计 算、存储融合的虚拟化需求,研究统一高效的硬件设备虚拟化架构,解决现有方案 单一虚拟化功能的窘境(仅支持网络虚拟化),充分释放 DPU 各类资源能力,更 高效支撑复杂上层应用。统一的 DPU 软件开发框架 HADOS,解决现有编程框架 碎片化的问题,使得应用部署更加简单高效。

3 行业市场空间测算—预计 2025 年全球 DPU 市 场空间有望超 260 亿美金,CAGR 高达 54%

提供两种市场空间测算方式:

方法一: 数据中心税:根据中国科学报数据,云计算巨头亚马逊云服务(AWS)形象 地称之为“数据中心税”——还未运行业务程序,先接入网络数据就要占去许多计 算资源。据《DPU 技术白皮书》显示,2013 年,AWS 研发了 Nitro 产品,将为 虚拟机提供远程资源、加密解密、故障跟踪、安全策略等服务程序的资源开销,全 部放到专用加速器上执行,“轻量化 Hypervisor+定制化硬件”的上场一举节省 30%CPU 资源。因此数据中心税(即服务器算力税率)可以近似看成是节约的 CPU 资源率 30%。因此,我们假设数据中心税为 30%,进而可以假设,DPU 的潜在价 值量是 CPU 的三分之一(因为 DPU 能节省 CPU 三分之一资源)。 存量服务器数量、市场规模:根据同花顺财经,腾讯开发者社区,海光信息招 股说明书数据,一般服务器生命周期为 5 年(参考紫光股份投资者问答,以及腾 讯云计算官方论坛相关内容),因此,16-20 年这五年的服务器总出货量就是 21 年的服务器存量。根据《海光信息招股说明书》数据,我们看到 16-20 年全球服 务器总出货量为 5540.7 万台,对应总市场规模为 3913.2 亿美元。

CPU 占服务器成本:因为服务器其他环节成本相对固定,技术壁垒低,因此 随着量的增加成本有逐步下降趋势;但 CPU 属于高技术壁垒的产品,且随着产业 发展其复杂度将越来越高,进而在服务器成本的比重有望逐步提升。假设随着芯片 制程先进性的提高,高端 CPU 占服务器的成本会从 30%逐渐提高到 36%。 测算思路:1)增量市场:按照数据中心税当前为 30%计算,当前 DPU 市场 潜在规模为 CPU 在服务器市场中市场规模的 30%。根据这一思路,测算出 DPU 的潜在市场规模。2)存量市场:由于服务器生命周期为 3-5 年,按照原有服务器 假设 21-25 年仍以 10%的复合增速保持增长,则 21-25 年全球改造比例为 25% 分四年改造完成。根据海光信息招股说明书,16-20 年五年一个周期,全球服务器 存量市场规模为 3913.2 亿美元。3)整体来看:总体 DPU 市场规模(亿美元)= (服务器市场规模+存量服务器市场规模*改造比例)*CPU 占服务器的成本*服务 器算力税率;计算得出 2025 年全球 DPU 市场空间为 264 亿美元。根据赛迪顾问数据,2020 年全球 DPU 产业市场规模达 30.5 亿美元,据方法一测算,至 2025 年,市场空间将有望达到约 264 亿美元,期间 CAGR 为 54.0%。

方法二: 单个服务器配置:1 个 DPU(目前 DPU 还处于发展初期,还没有被客户大范 围接受,我们假设每台设备仅搭载一个 DPU)。 DPU 单价:由于 DPU 目前还属于新生事物,市面上难以找到其量产价格, 但我们可以根据 CPU 价格来简易预测 DPU 价格。根据《海光信息招股说明书》 数据,服务器 CPU 单价约为 7000-8000 元人民币,对应约 1000 美元(参考最 新汇率)。由于 DPU 承担了 CPU 三分之一的工作,所以价值量也应该是其三分 之一;但是考虑到 DPU 技术壁垒高、新生事物,因此价格可以假设为 5000 元人 民币左右,对应 700 美元/片。 测算思路:根据《海光信息招股说明书》数据,16-20 年五年一个周期,全球 服务器存量市场规模为 5540.7 万台,【未来潜在市场规模=(新增服务器数量+ 存量服务器改造数量)*服务器单价*DPU 数量。】计算得出 2025 年 DPU 市场空 间约为 234 亿美元。根据赛迪顾问数据,2020 年全球 DPU 产业市场规模达 30.5 亿美元,据方法二测算,至 2025 年,市场空间将有望达到约 234 亿美元,期间 CAGR 为 50.3%。

4 DPU 市场空间及核心环节:市场高景气延续,受 益领域有望多点开花

4.1 DPU 产业链分析

DPU 技术方案与主流厂商:当前业界 DPU 的实现技术方案主要分为两种— —FPGA 和 ASIC/SoC(systemofchip,系统级芯片)。国外主流厂商有 Fungible、 Mellanox(2020 年 4 月被英伟达收购)、英伟达、英特尔等。 DPU 产业链分析: 上游:EDA、IP 核、制造、封测;中游:云厂商、芯片厂商;下游:云厂商、 电信领域。

4.2 全球、国内市场均有望保持高增,行业高景气度有望延 续

全球 DPU 产业发展趋势:得益于智能网卡方案的逐步成熟,叠加全球通用服 务器出货量的稳定增长、L3 以上级别智能驾驶汽车的技术落地、工业控制领域的 需求增加、边缘计算技术和物联网技术的迅速发展,全球 DPU 产业市场规模呈现 逐年增长的趋势,并随着 Intel、NVIDIA 等厂商的 DPU 大规模量产,预计 DPU 市场将迎来快速增长。根据赛迪顾问数据,2020 年全球 DPU 产业市场规模达 30.5 亿美元,预计到 2025 年全球 DPU 产业市场规模将超过 245.3 亿美元,期 间 CAGR 高达 51.73%。

中国 DPU 产业发展趋势:得益于数据中心升级和边缘计算、新能源汽车、IoT、 工业物联网等产业的发展所带来的需求增长,中国 DPU 产业市场规模呈现逐年增 长的趋势,预计中国 DPU 市场将迎来快速增长。根据赛迪顾问数据,2020 年中 国 DPU 产业市场规模达 3.9 亿元,预计到 2025 年中国 DPU 产业市场规模将超 过 565.9 亿元,期间 CAGR 高达 170.6%。

4.3 DPU 行业上游分析:EDA、IP 等上游环节均为研发重 要基础

4.3.1 DPU 行业上游分析-EDA——DPU 研发之基

EDA 是集成电路上游的设计基础工具,对 DPU 研发与生产中的生产效率、 产品技术水平有重要影响。 EDA 行业可撬动数千亿集成电路市场规模。根据 ESDAlliance、21ic 电子网 数据,2021 年 EDA 全球市场规模 132.75 亿美元,却撬动了千亿美元级别的半导 体市场和数万亿美元的电子产品市场,乃至数十万亿美元规模的数字经济。中国拥 有全球规模最大、增速最快的集成电路市场,EDA 杠杆效应更大,一旦 EDA 产业 链基础出现问题,整个集成电路产业乃至上层运行的数字经济产业都会受到影响。

全球 EDA 市场规模:EDA 行业占整个集成电路行业市场规模的比例虽然较 小,但以百亿美元左右规模体量,支撑和影响着数千亿美元的集成电路行业。受益 于先进工艺的技术迭代和众多下游领域需求的驱动,全球 EDA 市场规模呈现出稳 定增长态势,行业持续高景气。根据华经产业研究院数据,全球 EDA 市场规模从 2012 年的 65.36 亿美元持续增长至 2021 年的 132.75 亿美元,年复合增速为 8.2%。

国内 EDA 市场规模:在集成电路产业稳定向好、设计环节较快增长的发展态 势下;叠加 EDA 软件重要性凸显,占集成电路规模比重提升;EDA 工具市场规模 保持稳定上涨态势。根据华经产业研究院数据,2016-2020 年,我国 EDA 市场 规模由 57.4 亿元增长至 93.1 亿元,期间 CAGR 为 12.85%。

国内 EDA 市场长期由国际三大巨头占据,未来有望迎来突破。目前,根据华 经产业研究院数据,Cadence、Synopsys 和西门子 EDA 三家公司仍占据了国内 EDA 行业的主导地位,2021 年的合计市场份额为 77.7%,三巨头的技术水平、产 品完成度和丰富度仍旧大幅领先国内相关企业。但在政策支持、人才涌现、企业大 力投入研发的背景下,国产 EDA 企业已经崭露头角,国内 EDA 企业龙头华大九天在面板电路 EDA 工具领域的技术已经达到了国际领先水平,在模拟电路 EDA 工 具领域实现了全流程覆盖,在数字电路 EDA 工具领域实现的点工具的突破,2021 年,其在国内 EDA 市场市占率已经达到 6%,超过 Ansys 和 Keysight。概伦电 子也初步打入市场,占据国内市场 1.9%的份额。

EDA 在 DPU 芯片设计环节对提高成功率和降低费用至关重要

在芯片设计方面,设计人员需使用 EDA 工具来设计几十万到数十亿晶体管的 复杂集成电路,以减少偏差、提高成功率和降低费用; 1)模拟设计类 EDA 工具,主要用于模拟芯片设计中电路图编辑、版图设计和仿真验证等; 2)数字设计类工具,用于数字芯片设计中,负责功能定义、架构设计、逻辑 综合、电路仿真及功能验证等;

4.3.2 DPU 行业上游分析-IP 核——DPU 大厦的钢筋与混凝土

IP 核是 DPU 研发生产中必不可少的一部分,以英伟达 DPU 为例,其由内核, 网络连接部分,AI 加速器,加速器引擎,PCIe 接口,内存等架构组成。其需要外 购 CPU 芯片 IP,接口芯片 IP,存储 IP 等。因此 DPU 的研发生产过程中,IP 核 是必不可少的一部分。 IP(Intellectual Property)核是芯片设计环节中逐步分离出来的、经过验 证的、可重复使用的设计模块,其作用是在芯片设计环节中降低冗余设计成本,降 低错误发生的风险,提高芯片设计效率。IP 核本身是产业链不断专业化的产物, 是芯片设计知识产权的重要体现,也是半导体设计行业下一步升级的重要方向。

供需合力孕育 IP 核产业,未来需求打开新增通道,芯片用量增长和品类的持 续扩张对芯片设计效率和成本的要求不断提升,同时制程工艺的改进也增加了芯 片设计的难度,经过反复验证的、可重复使用的 IP 核逐渐受到系统厂商、IDM、 芯片设计公司的欢迎。同时,半导体产业专业化孕育了 IP 核供应,IDM、芯片设 计公司自身在多年芯片设计过程中通过设计复用以降低冗余研发所产生的一些经 过验证的、可重复利用的指令集、代码、功能描述和具体物理模块,最终逐步形成 IP 核。ARM 公司在这个浪潮中逐步成长为全球龙头,牢牢占据着超 40%的 IP 核 行业份额。同时,由于 IP 核的特殊性,行业形成了较为独特的以“授权+版税”为 主的商业模式。 从市场总体来看,IP 市场规模稳步提升,市场增速上行。根据 IPnest 数据, 2021 年全球半导体 IP 核市场规模为 54.5 亿美元,同比增速从 2018 年的 6.0% 上升至 2021 年的 19.4%。预计未来几年市场规模将持续稳步扩张,根据 IBS 数 据,全球半导体 IP 核市场规模有望在 2027 年达到 101 亿美元,IBS 口径下 2018~2027 年 CAGR 达 9%,其中处理器 IP 市场增长较快,增速达 10%。

半导体 IP 市场发展概况:随着先进制程的演进,线宽的缩小使得芯片中晶体 管数量大幅提升,使得单颗芯片中可集成的 IP 数量也大幅增加。根据芯原股份招 股说明书,以 28nm 工艺节点为例,单颗芯片中已可集成的 IP 数量为 87 个。当 工艺节点演进至 7nm 时,可集成的 IP 数量达到 178 个。单颗芯片可集成 IP 数量 增多为更多 IP 在 SoC 中实现可复用提供新的空间,从而推动半导体 IP 市场进一 步发展。

芯原股份招股说明书数据显示,半导体 IP 市场将从 2018 年的 46 亿美元增 长至 2027 年的 101 亿美元,年均复合增长率为 9.13%。其中处理器 IP 市场预 计在 2027 年达到 62.55 亿美元,2018 年为 26.20 亿美元,年均复合增长率为 10.15%;数模混合 IP 市场预计在 2027 年达到 13.32 亿美元,2018 年为 7.25 亿 美元,年均复合增长率为 6.99%;射频 IP 市场预计在 2027 年达到 11.24 亿美元, 2018 年为 5.42 亿美元,年均复合增长率为 8.44%。

市场规模:根据 CSDN 数据,就全球和中国 EDA 市场规模现状而言,随着下 游半导体产业规模持续扩张,但国内整体 EDA 相较国际先进水平无论技术还是整 体规模仍有较大差距,政策持续推进背景下国内规模增速远超全球规模增速,预计 占比全球份额持续提高。根据华经产业研究院数据显示,2018-2020 年,全球 EDA 市场规模从 62.2 亿美元增长至 72.3 亿美元,国内 EDA 市场规模从 6.67 亿美元 增长至 9.83 亿美元。

4.4 DPU 制造中的能工巧匠

DPU 厂商多为 Fabless 模式,需要寻找代工厂来进行芯片的制造,封装,测 试等过程。追寻摩尔定律能让消费者享受更便宜的算力,晶圆代工是推动摩尔定律 最重要的环节。根据 21ic 电子网数据,1965 年,英特尔(Intel)创始人之一戈 登·摩尔提出,当价格不变时,集成电路上可容纳的元器件的数目,约每隔 18-24 个月便会增加一倍,性能也将提升一倍,这也是全球电子产品整体性能不断进化的 核心驱动力,以上定律就是著名的摩尔定律。换而言之,每一美元所能买到的电脑 性能,将每隔 18-24 个月翻一倍以上。

4.5 核心环节之二:下游应用多点开花,未来前景广阔

4.5.1 行业的下游应用——数据中心—DPU 当前的核心应用场景

数据中心作为数据产生、汇聚、融合、传输的重要场所,是承载算力的物理实 体,是传统产业数字化转型的催化剂,是数字产业快速发展的动力引擎,是我国新 基建的核心组成部分。我国正在加快引导数据中心高质量发展,2021 年工业和信 息化部印发的《新型数据中心发展三年行动计划(2021-2023 年)》指出,用三 年时间,基本形成布局合理、技术先进、绿色低碳、算力规模与数字经济增长相适 应的新型数据中心发展格局。

全球服务器景气度回升,DPU 厂商有望受益。受益于大数据、云计算、物联 网等下游应用场景的不断发展,数据运算和存储的需求快速增长,服务器迎来快速 放量。根据 Counterpoint、国际电子商情数据,2022 年全球服务器市场的收入 将同比增长 17%,达到 1117 亿美元。根据 IDC、立鼎产业研究网,芯片成本在 基础型服务器中约占 32%,在更高性能的服务器中,芯片相关成本占比高达 50%- 83%。因此,提供有利于服务器提高性能,降低成本的解决方案的 DPU 厂商将在 成本日益提升的服务器芯片市场中得到厂商更多的青睐。 根据中国信通院的数据,全球数据中心新增相对稳定。按照全球服务器年增加 量统计,2015 年-2021 年全球年新增投入使用服务器规模相对稳定,净增加值也 相对稳定,预计未来几年数据中心规模仍将保持平稳增长。

根据中国信通院数据,近年来,我国数据中心机架规模稳步增长。按照标准机 架 2.5kW 统计,截止到 2021 年年底,我国在用数据中心机架规模达到 520 万架, 近五年年均复合增速超过 30%。其中,大型以上数据中心机架规模增长更为迅速, 按照标准机架 2.5kW 统计,机架规模 420 万架,占比达到 80%。

根据中国信通院数据,受新基建、数字化转型及数字中国远景目标等国家政策 促进及企业降本增效需求的驱动,我国数据中心业务收入持续高速增长。2021 年, 我国数据中心行业市场收入达到 1500 亿元左右,近三年年均复合增长率达到 30.69%,随着我国各地区、各行业数字化转型的深入推进,我国数据中心市场收 入将保持持续增长态势。

需求方面,新兴市场需求强劲,我国应用场景多样

从全球范围来看,受全球数字经济加速发展促进,印度、南非等新兴市场逐步 加强对数据中心的政策支持和产业投入,成为拉动全球数据中心需求增长的重要 增长极。2015 年启动的“数字印度”计划为印度的数字化发展提供持续助力,大 数据中心建设是该计划的重要内容之一。2021 南非通讯和数字科技部发布了《国 家数据和云政策草案》,该草案对国家高性能计算和数据处理中心的建设作出了指 引,高性能计算和数据处理中心主要由现有的 Sentech 和 Broadband Infraco 两 个数据中心合并而成,上述数据中心将为各级政府、企业及高校提供云服务。以政 府力量为主导的数据中心建设,将为南非数字经济发展打下坚实基础。 国内运营商布局较早,拥有网络和土地资源等 IDC 行业优势。基础运营商具 备我国 IDC 行业先发优势,不同于北美市场以第三方 IDC 为主,当前我国 IDC 市 场仍由三大运营商主导,形成了基础电信运营商及众多第三方 IDC 厂商共同提供 数据中心服务的市场格局。三大基础运营商自身业务需要数据中心支撑发展,在数 据中心行业领域具有先天优势,在客户资源、网络及土地资源等方面具有更多的资 源掌握权和行业话语权。

发展趋势:三大运营商未来发展策略各不相同,将逐步差异化布局 IDC 业务。 中国电信围绕核心城市规模部署 IDC,同时着力发展政企市场中IDC和专线业务。 中国移动持续优化“4+3+X”资源布局,促进 IDC 业务强基提质。中国联通将着 力提高服务满足客户定制化需求。 发展现状:第三方 IDC 厂商运维能力强,增值服务多样。相对于基础运营商, 第三方 IDC 厂商响应速度快,通过模块化、标准化机房设计缩短建设周期,可以 更快速地满足企业需求。凭借多年运维经验,第三方 IDC 厂商还能有效降低机房 能耗,保证机房稳定运行,整合基础运营商的网络资源,为客户提供更多选择。此 外,第三方 IDC 厂商可为客户提供丰富的增值服务,除了智能 DNS、智能灾备、 CDN 等,第三方 IDC 厂商还积极与云厂商合作打造云网生态系统,为企业提供一 站式云服务。

第三方 IDC 厂商具有较深的资源背景,有望凭借能耗控制能力在碳中和背景 下实现快速扩张。我国 IDC 行业正处于高速发展阶段,在一线商圈土地、电力资 源紧缺,政策缩紧的大环境下,提前布局核心区域,优先获取资源的企业将拥有更 大竞争力。我国头部 IDC 第三方厂商积极围绕核心城市展开布局,在核心区域自 建大规模数据中心,拥有十分可观的机柜存量及储备机柜规模,凭借其在一线城市 内积累的强大的客户资源、充足的项目储备,逐渐筑起行业壁垒。 新进入者纷纷涌入快速发展的 IDC 行业,钢铁企业和房地产企业为主要来源。 在 5G 高速发展的背景下,IDC 建设规模不断扩大,然而 IDC 受限于土地、电力、 网络等资源,导致 IDC 市场供给增速跟不上需求增长。近年来我国数据流量更是 呈现快速增长,导致 IDC 供需缺口远大于发达国家;就网民规模而言,我国互联 网用户数量位居全球首位,然而我国 IDC 储备量与美国尚存差距。在供需失衡叠 加 5G 高速发展的背景下,我国 IDC 行业迎来发展黄金时期。除三大运营商、第 三方 IDC 服务商以及云服务厂商外,最近涌现出了一批以钢铁和房地产企业为代 表的行业新进入者。

4.5.2 行业的下游应用——互联网行业:数据中心下游客户之一,大 型企业为 DPU 潜在用户

不同规模、不同类型互联网企业对 IDC 的需求存在很大差异。大型互联网企 业偏好定制型交付模式,而中小型企业多采用服务器租赁或 TKF 模式。大型互联 网企业对 IDC 需求规模较大,多采用定制型的交付模式,与 IDC 运营商签订长期 合约;而中小型互联网客户 IDC 需求规模较小,多以服务器租赁和 TKF 模式(一 站式服务)与 IDC 运营商达成合作,签订的合约期限较短,有些运营商会根据客 户体量采用差异化结算方式。中小型互联网企业对价格的敏感性尤其高,对 IDC 运营商来说,这部分客户是经济下行时最容易退租、风险最高且最难保证盈利的群 体。

对于 DPU 行业来说,大型互联网用户价格敏感度低,部分领域时延敏感度高, 体量大,替换成本高,是优质的潜在下游群体。DPU 厂商可与互联网企业进行深 度合作,获得先发优势,辅助其开发适用于自身业务状况的专用 DPU,并使其在 定制 IDC 过程中提出融入 DPU 需求,以获得订单。

4.5.3 行业的下游应用——金融政府电力用户:数据中心的潜在大客 户,DPU 需求的增长极

DPU 在金融、政府和电力用户领域将更多发挥安全性的优势。除性能提升之 外,DPU 还可为这三类用户提供零信任保护,实现主机业务和控制平面的完全隔 离,以达到减少数据泄露,拒绝未授权访问的目的。因此 DPU 与这三类用户共同 合作,协同效应明显,数据安全价值很大。 发展现状:金融、政府和电力用户为数据中心下游三大用户,需求量仅次于云 计算和互联网用户。金融机构业务的数据量激增及出于安全稳定的考虑促使其对 数据中心需求增加。数字政府和智慧城市等建设是政府成为数据中心用户的主要 原因。电力行业数字化转型催生其对数据中心的需求。

金融机构对数据中心需求将进一步扩大,证券和基金业务需求增速加快。数据 中心在金融市场将保持良好增长势头。随着金融业务数据量的急剧增加,金融机构 亟需数据中心优化 IT 能力、提升效率,数据中心肩负协助金融机构完成数字化转 型的使命。数字政府市场扩大,加速政府用户对数据中心的需求。2021 年年初, 国务院提出未来需加快建设数字政府,将数字技术广泛应用于政府管理服务,不断 提高决策科学性和服务效率,预计 2025 年数字政府行业市场规模还将增长。数字 化转型在电力行业不断深入,对数据中心的需求将不断增长。随着互联网信息技术、 可再生能源技术的发展,电力数字化改革进程的加快,开展综合能源服务已成为提 升能源效率、降低用能成本、促进竞争与合作的重要发展方向。用电网络正在由原 来的单向电能量采集向双向互动转变,电力行业的新应用新业务也需要更多的双 向互动,电力能源部门对数据中心未来的需求也将进一步扩大。

4.5.4 行业的下游应用——云计算:数据中心的需求来源,DPU 当 前最核心的场景

云计算市场是数据中心核心的需求来源,也是对 DPU 行业最先应用的场景。 数据中心云计算用户主要分为公有云、私有云和独立第三方云计算厂商。公有云厂 商代表为阿里云和腾讯云。阿里云对外助力企业数字化转型,对内承载庞大业务体 系 IT 资源需求,对 IDC 的需求量庞大且多元。华为云业务以私有云为强项,产品 强调私密性、安全性,近年来大力建设自有数据中心。优刻得(UCloud)是中立 第三方公有云厂商,IDC 采购以零售型为主。

根据中国信通院数据,全球云计算市场逐步回暖,增速实现触底反弹。随着经 济回暖,全球云计算市场所受影响逐步减弱,至 2021 年已基本恢复到疫情前增长 水平。根据 Gartner 统计,2021 年以 IaaS、PaaS、SaaS 为代表的全球公有云市 场规模达到 3,307 亿美元,增速 32.5%。 我国云计算市场持续高速增长。根据信通院数据,2021 年中国云计算总体处 于快速发展阶段,市场规模达 3,229 亿元,较 2020 年增长 54.4%。其中,公有 云市场继续高歌猛进,规模增长 70.8%至 2,181 亿元,有望成为未来几年中国云 计算市场增长的主要动力;与此同时,私有云市场突破千亿元大关,同比增长 28.7% 至 1,048 亿元。

4.5.5 行业的下游应用——服务器:DPU 的硬件载体,有望受益行业发展大趋势

根据《中国算力发展指数白皮书 2022》数据,训练数据规模和模型复杂度的 不断增大,推动 AI 服务器需求快速增长。整机方面,据 IDC 统计数据,2021 年, 全球 AI 服务器市场规模达 156 亿美元,同比增长 39.1%,超过全球 AI 整体市场 (含硬件、软件及服务)增长率 22.5%,成为 AI 整体市场增长的驱动力量。 在 2021 年全球 AI 服务器市场中,浪潮、戴尔、HPE 分别以 20.9%、13.0%、 9.2%的市占率位列前三,三家厂商总市场份额占比达 43.1%,华为(5.8%)和 IBM (4.1%)位列第四和第五。 芯片方面,传统芯巨头加速完善 AI 芯片产品体系,不断推进全能力建设,抢 占多样性算力生态主导权。英特尔发布新一代高性能深度学习 AI 训练处理器 HabanaGaudi2,运算速度是上一代的 2 倍。AMD 在完成赛灵思的收购后,计划 在 CPU 中融入赛灵思的 FPGAAI 引擎。英伟达推全新架构 GPU,采用台积电 4nm 工艺,集成 800 亿个晶体管,大幅提升了 AI 计算速度。E 级超算时代已经来临, 超算设备厂商纷纷加快产业化步伐。

芯片方面,CPU 仍以英特尔和 AMD 为主。TOP500 榜单上使用英特尔 CPU 的超算高达 388 台,占比 77.6%,93 台使用 AMD 处理器。此外异构计算芯片在 超级计算机中应用越来越多,TOP500 榜单上共有 168 台超级计算机使用了加速 器/协同处理器技术,其中 154 台使用了英伟达芯片,8 台采用 AMD 芯片。 计算芯片加快突破,在 CPU、GPU 等通用芯片性能持续升级的同时,计算芯 片专用化发展仍在延续。人工智能芯片迈入商业落地阶段,业内已形成覆盖全场景 的芯片解决方案,云端训练侧英伟达 GPU 占据主要市场份额,云端推理侧高效能 芯片架构多样化发展;端侧场景高度碎片化,已在自动驾驶、视频监控、智能家居 等领域形成一批商用落地产品。数据处理单元(DPU)芯片成为行业追逐新热点, 数据密集型需求的快速增长对云端现有计算体系架构提出了新要求,专注数据加 速处理以及云端各类资源管理的 DPU 芯片创新活跃,成为提升系统效能的重要推 手。目前,英伟达、英特尔、美满等芯片厂商,亚马逊、阿里云等云服务商,星云 智联、云豹科技等新锐企业均已形成自研 DPU 产品。

根据《海光信息招股说明书》数据,国内市场规模:人工智能领域的应用目前 处于技术和需求融合的高速发展阶段,在运算加速方面逐渐形成了以 GPGPU 解 决方案为主的局面。根据前瞻产业研究院的数据,未来几年内,中国人工智能芯片 市场规模将保持年均 40%至 50%的增长速度,到 2024 年,市场规模将达到 785 亿元。而随着人工智能相关技术的进步,应用场景将更加多元化,GPGPU 通用性 好和软件生态系统完善的优势会进一步展现出来,成为该领域的主流解决方案。 GPGPU 在我国人工智能芯片领域也将占据较大比例的市场份额。从 2019 年至 2024 年,CAGR 达 45.11%。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:【未来智库】。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1