当前位置:首页|资讯|AI大模型

AI大模型专题:AI大模型落地终端,AIPC驱动PC行业新增长(附下载)

作者:烟树晚雁发布时间:2024-03-04

原标题:AI大模型专题:AI大模型落地终端,AIPC驱动PC行业新增长(附下载)

今天分享的是AI大模型系列深度研究报告:《AI大模型专题:AI大模型落地终端,AIPC驱动PC行业新增长》。

(报告出品方:华鑫证券)

报告共计:30

海量/完整电子版/报告下载方式:公众号《人工智能学派》

数据安全和高成本阻碍大模型普及,AI大模型落地端侧势不可挡

◆ AI大模型在云端运行存在数据泄露、传输延迟、云端运营成本越来越高等诸多问题,阻碍大模型的商业化应用。在数据安全方面,以ChatGPT为例,根据 Cyberhaven的统计,每个使用ChatGPT的公司每周向ChatGPT泄露数百次机密材料,而ChatGPT正在将这些材料纳入其公开的知识库并进行共享。在云端大 模型运行成本方面,生成式AI大模型的参数量以数十、数百亿计,只有云端服务器可以满足模型训练、优化、推理的需求,而随着用户量及使用请求的逐渐增多, 云端尝试的运营成本越来越高。

◆ 混合AI指终端和云端协同工作,在适当的场景和时间下分配AI计算的工作负载,以提供更好的体验,并高效利用资源,有助于缓解大模型运行成本以及提高数据安全性。

AI PC:大模型的最佳载体

◆AI PC主要是指可以运行人工智能,配备整合NPU处理器的个人电脑。具有存储容量大、计算能力强、交互模态以及承载场景丰富的优势。此外,AI大模型目前覆 盖的应用场景与PC高度重合,因此AI PC被称为“大模型的最佳载体”。

◆AI PC的特征为:拥有本地部署的大模型与个性化本地知识库组合构成的个人大模型,第一交互入口为个人智能体,可实现自然语言交互,AI PC将通过内嵌AI计 算单元的方式提供混合AI算力,还可以依靠开放生态来满足不同场景的需求。在满足生产力提升的同时,通过本地数据存储和隐私及数据保护协议来保护个人隐私 和数据安全。

AI PC仍处于AI Ready阶段,商用领域将成为主要需求来源

◆IDC将AI PC的发展划分为AI Ready、AI On两阶段:AI Ready是指PC芯片计算架构的升级,集成了NPU计算单元的CPU陆续推向市场,以更高的能效比实现计算 速度的提升,并在运行过程中具备更高的稳定性和可靠性,但尚未搭载AI大模型;AI On阶段具有完整的AI PC核心特征,并且在核心场景提供划时代的AI创新体 验,成为每一个人的个人AI助理。目前AI PC市场整体处于AI Ready阶段并开始向AI On过渡,大多数AI PC搭载轻量级的AI应用以及微软Copilot按钮,联想内置 大模型的AI PC预计2024年9月发布。

◆根据Canalys预测,兼容AI的个人电脑有望在2025年渗透率达到37%,2027年兼容AI个人电脑约占所有个人电脑出货量的60%,未来AI PC的主要需求来源为商 用领域,到2027年将有59%的需求来自商用领域。

AI PC为PC行业发展提供新动力

◆ 在AI PC的推动下,PC产业生态将从应用为本转向以人为本,从应用驱动转变为意图驱动。AI PC产业生态中,个人智能体将成为第一入口,在大模型与应用生 态的支持下,准确理解用户指令,给出恰当的反馈,跨应用进行调度,进而完成相对复杂的任务。模型、应用、算力厂商都需要围绕AI PC(终端)形态下新的 以人为本的需求做出改变,在研发工作中对AI的高效运行予以充分的考量,以适应AI PC新时代。用户不再是行业变革的被动接受方,而将成为主动参与者和创 造者。PC终端厂商和用户直接连接,因此,终端厂商将成为PC产业生态的核心中枢。

◆ AI PC将为PC行业注入新的增长活力。IDC预测,中国PC市场将因AI PC的到来,结束负增长,在未来5年中保持稳定的增长态势。台式机、笔记本电脑市场总规 模将从2023年的3900万台增至2027年的5000万台以上,增幅接近28%,而其中AI笔记本和台式机的占比将从2023年的8.1%提升到2027年的84.6%。

处理器:“CPU+GPU+NPU”异构方案

◆为大模型的本地运行需要强大的处理能力,离不开AI专用算力。因此,目前的AI PC通用计算架构开始采用“CPU+GPU+NPU”的异构方案,嵌入AI加速器——端 侧神经网络处理单元NPU。 CPU用来运行较小的工作负载并实现低延迟,NPU则专门针对神经网络工作负责进行优化,GPU用于需要并行吞吐量的大型工作负载, 三种芯片结合,就能实现更快速、更高效率的边缘AI模型推理。

◆英特尔于2023年12月首次推出内置NPU的PC处理器。相比于GPU,NPU能够更低功耗、更高效率地执行大模型任务。根据英特尔以Stable Diffusion文本解码器、 Unet、VAE三个步骤做的测试,如果全部放置在CPU上,所花费的时间为43秒。如果全部跑在GPU上,耗时仅14.5秒,功耗是37W,而如果说将部分步骤放置在 NPU其他的在CPU,那么耗时为20.7秒,功耗更是只有20W。

报告共计:30页

海量/完整电子版/报告下载方式:公众号《人工智能学派》


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1