当前位置:首页|资讯|AI大模型

2024半导体行业报告:AI加速器协同高速通信技术,加速AI创新发展(附下载)

作者:西风故道远发布时间:2024-04-09

原标题:2024半导体行业报告:AI加速器协同高速通信技术,加速AI创新发展(附下载)

今天分享的是:2024半导体行业报告:AI加速器协同高速通信技术,加速AI创新发展(报告出品方:湘财证券股份有限公司)

训练端计算集群渗透率稳步提升,AI计算加速器需求上行

业界通常根据 AI 模型发展的关键节点,将人工大智能分为训练端(Training)和推理端(Inference)。训练瑞的核心目标是训练出能够完成目标任务的人工智能大模型产品。训练端 AI大模型的参数持续增多,AI算力平台从过去依赖单一计算机的算力逐渐演变为依赖计算集群,研究显示大模型的参数、样本数与训练大模型所需 GPU 卡数呈正相关关系;大模型参数的增加会持续拉动 AI计算加速器的需求。随着 AI 大模型训练需求及模型参数的提升,AMI 预计 2023年至2027年全球用于数据中心的 AI 计算加速芯片市场规模的年均复合增速约为 72.7%。网络优化提升计算集群性能,Infniband与ROCE方案市场渗透率提升中国移动披露的数据显示大模型训练需要在不同的 GPU 网卡之间传递大量参数和梯度信息,GPU 通信时间占比达到50%以上,提升同一机器内 GPU 与各硬件的传输效率、不同服务期间信息的传输效率对于大模型训练效率的提升至关重要。GPU集群的跨服务器通信解决方案领域,业界多采用 InifiniBand 和 RoCE 解决方案。其中 RoCE 网络方案的普及或带动 DPU 崛起,赛迪顾问统计数据预计 2020 年至 2025 年我国 DPU市场规模年均复合增速约为 170%。

RoCE 以太网正在向 400GbE/800GbE升级演进:IDC发布的报告显示2023 年全球数据中心领域 200/400 GbE 交换机的收入同比增长 68.9%,DellOro 预测 2024 年将是 800GbE 以太网部署的重要一年,预计到 2027年,400 Gbps/800 Gbps 的瑞口数量渗透率将达到 40%以上;带动高性能以太网交换机设备及以太网交换芯片需求增长。存储设备领城,NVMè-oF+NVMè SSD 方案具有更高的性能、更低的延迟、更高的可扩展性;Markets And Markets 预计受人工智能技术、物联网、数据安全等多种需求推动,2022年至2025年,NVMè 市场规模年均复合增速达29.7%。

以下为报告节选内容:

报告共计:22页

中小未来圈,你需要的资料,我这里都有!


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1