当前位置:首页|资讯|AI大模型

半导体行业报告:AI大模型风起云涌,半导体与光模块长期受益

作者:报告派研读发布时间:2024-03-15

原标题:半导体行业报告:AI大模型风起云涌,半导体与光模块长期受益

报告出品方:东海证券

以下为报告原文节选

------

第一部分 大模型带动AI服务器高增长

1.1、通用AI概念:AI有望引领人类第四次工业革命

复盘历史上三次工业革命,每一轮都伴随着核心技术的突破和生产方式的重大变革。 第一次工业革命以蒸汽机的发明为代表,机器解放了人类的双手,第二次则由电力和内燃机驱动,改变了人类交通和通信的方式,第三次是计算机和互联网技术的发明,使自动化产线和工业机器人得以大规模应用,移动通讯技术发展使信息传播速度前所未有,极大促进了生产力的发展。

2023年以来,以ChatGPT、Sora为代表的多模态AI大模型横空出世,标志着人工智能技术已经进入一个新的纪元。未来,通用人工智能(AGI)有望集多模态感知、大数据分析、机器学习、自动化决策于一体,重塑人类工作和生产生活的方式,引领人类步入第四次工业革命。

1.1、通用AI概念:人工智能的分类和三大要素

➢ 人工智能(Artificial Intelligence)是通过计算机和算法来模拟、扩展人类智能的一门技术科学。其本质是使计算机和人一样具备学习、推理、感知和决策的能力,代替人类解决和处理各类复杂的工作,从而提升效率和解放生产力。常见的AI研究包括机器学习、机器视觉、自然语言处理和专家系统等。

➢ 按照智能程度划分,AI可分为弱人工智能(ANI)、通用人工智能(AGI)和超级人工智能(ASI)。弱人工智能是指只能解决单个特定领域问题的AI,如面部识别、语音识别等,目前已广泛应用。通用人工智能是指具备人类级别智能的AI,目前还尚未实现,但Sora的问世无疑使我们离AGI更进了一步。超级人工智能是指超越人类智能且具有自主思维意识的AI,目前尚处理论阶段。

➢ 人工智能具有算力、算法、数据三大要素,其中基础层提供算力支持,通用技术平台解决算法问题,场景化应用挖掘数据价值。

1.2、AIGC产业链:基础设施是AI算力之源,下游应用前景广阔

➢ AIGC 即 AI Generated Content,即利用AI技术自动创建文本、图像、视频等内容,它被认为是继PGC、UGC之后的新型内容创作方式。

➢ AIGC产业可分为基础设施层、模型层和应用层,每一层都是AIGC产业链不可或缺的组成部分,共同构成了一个完整的生态系统,以支持从数据处理到内容创作的所有环节。

上游:基础设施层:构成AIGC核心的计算和存储平台,包括数据中心、算法平台、以及AI服务器、高性能计算硬件以及云计算服务。

中游:模型层:包括开发和训练各类AI大模型的算法和技术,主要为中美互联网科技巨头如OpenAI、微软、谷歌、百度、阿里等。

下游:应用层:直接面向最终用户的AIGC产品和服务,如C端的多模态生成式AI产品,以及各类B端的垂直行业大模型解决方案。

1.3、大模型市场规模:千亿级宽阔赛道,AIGC市场潜力无穷

1.4、算力需求激增:AI大模型的性能和训练算力需求呈显著正相关

➢ 机器学习的训练计算可分为三个时期:

➢ 前深度学习时代(1952-2010):这一时期算力增长主要受CPU和初期GPU的性能提升驱动,训练计算需求大约每20个月翻一番,基本符合摩尔定律。

➢ 深度学习时代(2010-2015):随着深度学习技术的兴起,算力需求增速显著加快,GPU开始被大量用于神经网络训练,训练算力翻倍时间缩短至大约5-6个月,超越了摩尔定律。

➢ 大模型时代(2015-至今):随着BERT、GPT等千亿乃至万亿级参数规模的大模型涌现,算力需求再次显著增加,尽管算力翻倍时间放缓至10个月左右,但其计算量相较深度学习时代提升了2-3个数量级。

➢ 未来,随着ChatGPT、Sora、文心一言等大模型的普及,模型推理所需的算力也会大幅增加,从而进一步提高对AI算力的需求,带动整个AI算力产业链不断增长。

1.4、算力需求激增: AI大模型的训练和推理均离不开强大算力支撑

➢ AI大模型的实践应用涵盖了两个核心阶段:模型训练和模型推理,这两个环节共同构成了AIGC技术的算力框架。

➢ 训练:指通过学习大量数据来不断优化模型参数,以期能够准确响应特定任务,随着参数增加或训练次数增多,其对算力要求亦越高。

➢ 推理:则涉及将训练完的模型应用于新数据的输入,以生成有用的内容或决策,其算力需求较训练更低,更侧重处理应用场景中实时数据流的能力,其算力挑战主要来自于用户端响应速度以及对吞吐数量的要求。

1.5、AI服务器:全球服务器行业的演进历程

➢ 2012年,云计算技术的兴起彻底改变了服务器的部署模式,推动企业IT建设从传统的本地环境向云端迁移。

➢ 2016年,Alpha Go引领的人工智能科技的第三次浪潮催生了对新型架构服务器的迫切需求,为服务器市场注入了新的活力。

➢ 2020年,5G通信技术的广泛应用为边缘计算领域开辟了广阔的蓝海市场,由于机房环境的迥异,服务器行业迎来全新增量市场。

1.5、AI服务器: AI服务器是大模型算力之源,中美科技巨头是主要买家

1.5、AI服务器: AI服务器产业链解析

➢ AI服务器产业链的上游厂商主要为电子元件厂商,中游为服务器厂商,下游客户则包括数据中心、政府、各类企业等。

➢ 核心零部件如算力芯片、DRAM、SSD、RAID芯片市场集中度较高,主要由美、日、韩企业主导,头部厂商市占率仍处于垄断地位,国产厂商整体实力与国外龙头相比尚有差距,但近年来正在加速国产替代步伐。

第二部分 算力芯片与光模块长期受益

2.1、AI芯片:AI芯片的主要类别和性能对比

➢ 定义:AI芯片指面向AI应用,针对AI算法(如深度学习等)进行特殊加速设计的芯片。

➢ 分类:根据技术架构和应用需求,AI芯片可分为GPU、FPGA、ASIC和类脑芯片四大类。GPU是多功能的并行处理器,由于其通用程度高、软件生态丰富、制造工艺相对成熟,是目前最为普遍的AI芯片类型,占到中国AI运算市场的约89%。FPGA芯片是可编程的芯片,允许开发者按需定制硬件,在需要特定算法优化时非常有用,可根据算法迭代调整硬件配置。ASIC是为特定AI应用定制的,能在性能和能效上提供最佳的表现,该类芯片是固定设计,针对一种特定任务或算法进行了优化。类脑芯片颠覆传统冯诺依曼架构,是一种模拟人脑神经元结构的芯片,目前尚处于起步阶段。

➢ AI芯片(GPU/FPGA/ASIC)在云端兼顾执行人工智能的“训练”与“推理”任务,而在终端主要负责执行“推理”操作。就性能和成本效益而言,ASIC在专用计算任务中表现最佳,其计算性能和能效远超通用GPU。但ASIC开发周期较长,且需达到一定生产规模才能实现成本优势。FPGA提供了一种介于GPU和ASIC之间的灵活解决方案,它的可编程性使硬件能够在算法迭代时进行有效优化,同时在开发周期上比ASIC更为短暂。

2.1、AI芯片:GPU是AI芯片主流,AI芯片占AI服务器成本约70-75%

➢ GPU是AI服务器的核心,约占近90%AI芯片市场份额,其价值量占AI服务器高达70-75%。 与传统服务器相比,AI服务器采用异构架构,能够搭载多个GPU、CPU及其他算力芯片来应对大规模并行计算的需求。传统服务器的CPU一般最多只有数十个核心,主要用来处理运算量较为复杂的数据。而GPU的具有数以千计的算术逻辑单元(ALU)和深度流水线,控制逻辑简单,省去了Cache的复杂性。因此在处理类型统一、相互无依赖的大规模数据时,GPU能够在一个无需中断的计算环境中高效运行。

➢ GPU是机器学习的主流之选。CPU由于受Cache和复杂的控制逻辑掣肘,导致在处理不同类型的数据时,需要引入分支和中断,增加了运算的复杂性和功耗。意味着在同等功耗下,GPU能效比显著高于CPU,能够加快AI模型训练和推理时间,从而减少机器学习模型从训练到部署的总时间。不仅如此,高性能GPU的制造工艺在英伟达和台积电等企业的领导下已趋向成熟,成本在AI芯片中具有优势,因此成为了市场主流之选。

2.1、AI芯片:算力需求驱动AI芯片高增长,英伟达独霸鳌头

2.2、AI芯片: 我国AI芯片需求有望迎来爆发增长

➢ AI大模型的迅速崛起带来了巨大的AI算力需求。AI大模型海量的数据处理、复杂的深度学习、多模态和跨领域的整合,以及广泛场景下实时性和交互性的要求,都对算力提出了更强的需求,这对我国的AI智能算力资源提出了挑战。

➢ 随着国产AI大模型如雨后春笋般涌现,智能算力缺口与日俱增,AI芯片需求有望迎来爆发增长。2023年以来,文心一言、讯飞星火、通义千问等上百家国产大模型争相涌现,参数规模从几亿乃至上万亿,广泛应用于云计算、数据中心、边缘计算、消费电子、智能制造、智能驾驶、智能金融及智能教育等领域,用于AI训练和推理的智能算力缺口与日俱增,AI芯片需求持续旺盛。根据Frost&Sullivan,2022年我国AI芯片市场规模达到368亿元,预计到2027年,市场规模将进一步扩大至3400亿元,2022-2027E CAGR将有望达到39.98%。

2.2、HBM存储模组:解决了AI发展的存储墙问题

➢ GDDR是显示用内存:Graphics Double Data Rate的缩写,为显存的一种,GDDR是为了设计高端显卡而特别设计的高性能DDR存储器规格,其有专属的工作频率、时钟频率、电压,因此与市面上标准的DDR存储器有所差异,与普通DDR内存不同且不能共用,GDDR产品具备高带宽、低延时、低功耗、高稳定性等特征。GDDR广泛应用于显卡、游戏主机和其他需要高性能图形处理的设备上。

➢ 内存墙问题1:近几十年来,处理器的性能以每年大约55%速度快速提升,而内存性能的提升速度则只有每年10%左右。不均衡的发展速度造成了当前内存的存取速度严重滞后于处理器的计算速度,内存瓶颈导致高性能处理器难以发挥出应有的功效。

➢ 内存墙问题2:随着GPU性能不断提升,匹配GPU的GDDR数量越来越多,而GPU的面积规格有限,导致显卡的体积越来越大,后期的散热与产品规格问题日益严重。

➢ 内存墙问题3:随着对计算性能要求越来越高,各个分离器件芯片的集成趋势要求越来越高,但是难度越来越大。最后,先进封装技术不断迭代发展,与GPU高度融合的HBM产品应运而生。

2.2、HBM存储模组:带宽、位数、体积、功耗显著优于GDDR5

➢ HBM 技术简介: Hig h Ban d wid th Me mor y , 即 高 带 宽 内 存 , 是 一 种 新兴 的 DRAM 解决方案 。 HBM 具有基于T S V( 硅通孔) 和芯片 堆叠 技术的 堆叠 DRAM 架 构 , 通 过 u Bum p 和Interp os er( 中介层 , 起 互 联 功 能 的硅 片 ) 实 现 超 快 速 连 接 。 Interpos er再 通过 Bump和 Su bstrate( 封装基 板 )连通到BALL,最后BGA BAL L 再连接到PCB上。

➢ HBM 优势:(1) 极高带宽:达到 1T /s;(2) 体积减小:比 G DDR 降 低 9 4% 的尺寸; (3) 低 功 耗 : 高 度 集 成 后 拥 有比G DDR更小的电压与功耗。

2.2、HBM存储模组:需要2.5D/3D、TSV、uBUMP等先进封装技术

--- 报告摘录结束 更多内容请阅读报告原文 ---

报告合集专题一览 X 由【报告派】定期整理更新

(特别说明:本文来源于公开资料,摘录内容仅供参考,不构成任何投资建议,如需使用请参阅报告原文。)

精选报告来源:报告派

科技 / 电子 / 半导体 /

人工智能 | Ai产业 | Ai芯片 | 智能家居 | 智能音箱 | 智能语音 | 智能家电 | 智能照明 | 智能马桶 | 智能终端 | 智能门锁 | 智能手机 | 可穿戴设备 |半导体 | 芯片产业 | 第三代半导体 | 蓝牙 | 晶圆 | 功率半导体 | 5G | GA射频 | IGBT | SIC GA | SIC GAN | 分立器件 | 化合物 | 晶圆 | 封装封测 | 显示器 | LED | OLED | LED封装 | LED芯片 | LED照明 | 柔性折叠屏 | 电子元器件 | 光电子 | 消费电子 | 电子FPC | 电路板 | 集成电路 | 元宇宙 | 区块链 | NFT数字藏品 | 虚拟货币 | 比特币 | 数字货币 | 资产管理 | 保险行业 | 保险科技 | 财产保险 |


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1