当前位置:首页|资讯|人工智能|深度学习|机器学习

算力需求呈万倍级增长,关注国内算力产业链公司

作者:摸象APP发布时间:2023-07-17

原标题:算力需求呈万倍级增长,关注国内算力产业链公司

(一)算力需求呈万倍级增长,各家厂商提前布局

自从进入互联网时代,人类所能获取和利用的数据呈现爆发式地增长,各行业、各场景的海量数据为人工智能的自主学习和模型训练提供了数据基础。而自人工智能的概念兴起,算法模型一直在不断优化,从决策树到神经网络,从机器学习到深度学习,并且已在不同的领域中得到应用。算力是基于芯片的人工智能发展的硬件基础和平台,随着海量数据的产生和算法模型的不断优化和发展,算力的发展成为了人工智能系统快速发展的核心要素。从 1956-2020 年,计算机处理能力的 FLOPS 增加了一万亿倍。

近几年,大量复杂的数据的收集和处理都需要硬件能力的相应增长,以应对人工智能发展的需求。基本上,计算能力是计算机以速度和准确性执行某种任务的能力。正如 OpenAI 的研究表明,训练最大的人工智能模型所需的计算能力,自 2012 年以来平均以每 3.4 个月翻一倍的速度增长。而在 2012 年之前的情况并非如此,当时计算能力平均以 2 年的速度翻倍。这意味着,今天使用的资源正以比以前快七倍的速度翻倍。从另一个角度而言,在线性尺度上,计算用量在 2019 年之前就增加了 30 万倍,表明对人工智能特定硬件的需求呈指数级增长。

1、百度算力芯片

百度自行研发的 AI 芯片,单卡算力达到 128TFLOPS。昆仑芯是基于百度在人工智能领域多年的产业实践,自主研发的一款人工智能通用处理器芯片。新发布的 R200 人工智能加速卡基于第二代昆仑芯,采用领先的 7nm 工艺,基于先进的芯片架构,专为深度学习和机器学习算法的云端和边缘计算设计。与上一代产品相比,R200 全面提升了计算机视觉、自然语言处理、大规模语音识别、大规模推荐等应用的人工智能负载的运行效率。

2、英伟达算力芯片

Navida 召开 GTC 发布会,展示算力芯片在多领域的突破进展。2023 年 3 月 21 日,英伟达召开 GTC,CEO 黄仁勋进行了主题演讲,展示英伟达算力芯片在 AI 应用、加速卡领域取得进展,目前已成为自然科学、化学制药、视觉解析、数据处理、机器学习和大模型领域成为不可或缺的一环。

AI 交付首台 DGX AI 超级计算机,用于加速深度学习、人工智能应用,《财富》100 强企业中已有一半以上企业开始使用 DGX,例如:BMW 应用 DGX 被用于加速 BMW 汽车自动驾驶系统的开发和训练;Tencent 应用 DGX 被用于加速腾讯云的人工智能服务的开发和运营;美国国家航空航天局利用 DGX 被用于加速 NASA 进行气象和环境数据的分析和预测。

从参数上来看,DGX 具备满足高性能计算和 AI 学习的需求。GPU 采用 8 片英伟达 A100

Tensor Core GPU,共有 6912 个 CUDA 核心和 432 个 Tensor Core, 单精度计算性能为 320TFlops.CPU 采用两颗英特尔 Xeon Platinum 8280L 处理器,共有 56 个核心;每个 DGX 系统配备 1.5TB 的 DDR4 内存;每个 DGX 系统配备 15TB 的 NVMe 存储器,同时支持 100Gb

Ethernet 和 Infiniband HDR 网络。DGX 具有强大的计算性能、高效的数据传输速度、大容量的存储空间和稳定的供电系统,能够满足各种深度学习和人工智能应用的需求。

发布 H100 NVL 服务器,相比 A100 DGX 提供 10 倍的计算速度。GTC2023 同时发布 H100

NVLINK,这款 H100 GPU 启用了基本完全的 94GB HBM 显存堆栈。最大区别在于,双 GPU结构,顶部使用 3 个 NV Link 连接器进行互联,因此可以提供多达 188GB 显存,显存带宽也不止翻倍,每个 GPU 带宽提供 3.9TB/s,而 H100 SXM 为 3.35TB/s,H100 PCIe 为 2TB/s。H100 NVL 综合性能可以达到 H100 SXM 的两倍

(二)多家提出存算一体架构,HBM 高带宽解决数据流通

1、存算一体架构

全球半导体厂商已提出多种解决方案,存内计算电路可基于 SRAM 和 NOR Flash 实现。AI 对数据的访问和不断调取需要数据需要在存储单元和计算单元之间频繁移动,访存带宽和功耗成为算法的重要瓶颈之一。存算一体将存储单元与计算单元直接结合在一起,绕过数据在存储和计算之间的搬运环节。当前 NOR Flash、SRAM 等传统器件相对成熟可率先开展存内计算产品化落地推动,从方案落地情况来看,英特尔选择基于 SRAM 的可配置存储器,三星选择在 DRAM 的 DRISA 架构上进行存算一体解决方案。

存算一体架构可突破冯诺依曼瓶颈,提高 AI 芯片能效。存算一体架构消除了计算与存储的界限,直接在存储器内完成计算,被认为是突破冯诺依曼瓶颈的极具潜力的高能效 AI 芯片架构。目前主流的存算一体 AI 芯片基于模拟计算架构设计。模拟存算一体架构通常基于 SRAM或非易失存储器,模型权重保持在存储器中,输入数据流入存储器内部基于电流或电压实现模拟乘加计算,并由外设电路对输出数据实现模数转换。由于模拟存算一体架构能够实现低功耗低位宽的整数乘加计算,非常适合边缘端 AI 场景。

2、先进封装

先进工艺是芯片算力提升的关键推动力,“后摩尔时代”先进封装不断发力。目前通过工艺提升芯片算力,主要有两种方式。1)先进制程:单位面积芯片算力会随着工艺节点的进步而提升,从 65nm 到 90nm 制程下的 GPU,先进工艺节点晶体管密度和工作频率均显著提高,从而带来芯片整体算力的提升。根据摩尔定律经验,集成电路上可以容纳的晶体管数目每 18个月便会提升 1 倍,然而随着先进制程进入 3nm 时代,摩尔定律已经受到了物理极限和工艺成本的双重挑战。2)先进封装:先进封装可以优化连接方式、实现异构集成、提高芯片的功能密度,从而提升芯片算力,因而是超越摩尔定律方向中的重要赛道。21 世纪初,以 MEMS、TSV、FC 等为代表的先进封装技术引领封测行业发展,目前平面封装正在向 2.5D/3D chiplet堆叠异构集成封装技术升级跃迁,为芯片算力提升带来了新思路。

(三)算力为 AI 芯片核心竞争力,关注国内算力产业链公司

强大的算力水平是AI 大模型必备的技术支撑。算力水平是数据处理能力强弱的决定性因素,AI 大模型的参数和语料库能够不断扩容离不开强大的算力支撑,根据英伟达的数据,ChatGPT 3.0 模型需要使用 1024 颗英伟达 A100 芯片训练长达一个月的时间。2012-2018 年,最大的 AI 训练算力消耗已增长 30 万倍,平均每 3 个多月便翻倍,速度远远超过摩尔定律。IDC 数据显示,2022 年中智能算力规模达到 268 百亿亿次/秒(EFLOPS),已经超过通用算力规模,AIGC 商业落地蓄势待发,未来对算力的需求更将超乎想象。

英伟达主导市场,国内厂商百花待放。目前算力芯片市场主要被欧美和日本厂商主导,其中英伟达是全球 GPU 领域的绝对龙头。英伟达 2020 年推出的 A100 芯片支持 FP16、FP32 和FP64 浮点运算,峰值算力高达 624TOPS,预计在今年发布的 H100 芯片在 FP16、FP32 和 FP64浮点计算方面将比 A100 快 3 倍,是当之无愧的 AI 芯片性能天花板。中国算力芯片领域起步较晚,但是在国家政策的大力扶持和企业持续的研发投入下,不少国内企业也在这方面取得了进展。

寒武纪:中国 AI 芯片领导者。寒武纪成立于 2016 年,技术积累深厚,能提供云边端一体、软硬件协同、训练推理融合、具备统一生态的系列化智能芯片产品和平台化基础系统软件。近年来,公司持续加大研发投入,陆续推出了多款 AI 芯片,其中 2021 年推出的思元 370 采用了 chiplet 的新技术,整体集成了 390 亿个晶体管,最大算力达到 256TOPS(INT8),也是商用客户里出货量最大、推广最成功的一款产品。公司即将推出的新产品思远 590,性能可对标英伟达 A100,在美国《芯片法案》禁令影响下,该款芯片有望成为国内市场中替代 A100的主力产品。

海光信息:基于 GPGPU 架构的 DCU 产品商业落地。海光信息成立于 2014 年,并于 2019年切入到 DCU 产品领域,其 DCU 系列产品以 GPGPU 架构为基础,兼容通用的“类 CUDA”环境以及国际主流商业计算软件和人工智能软件,软硬件生态丰富,可广泛应用于大数据处理、人工智能、商业计算等应用领域。DCU 系列产品中的深算一号性能指标堪比国际上同类型高端产品,并在 2021 年实现商业化应用,深海二号正在研发中,也将成为算力芯片市场强有力的竞争者之一。

龙芯中科:GPGPU 预计 23 年流片。龙芯中科成立于 2010 年,主营业务为处理器及配套芯片的研制、销售及服务,主要产品与服务包括处理器及配套芯片产品与基础软硬件解决方案业务。上市之初,公司就有 GPGPU 设计技术的储备,并募集资金 10.5 亿投向高性能通用图形处理器芯片及系统研发项目,主要针对图形加速、科学计算尤其是人工智能应用的需求。2022年 9 月 5 日,龙芯中科在业绩说明会上表示,公司 GPGPU 研发项目进展顺利,将于 2023 年流片,公司有望成为 AI 算力芯片领域新星。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1