从手机和PC的发展史来看,AIGC的赋能可能会将二者带入全新的发展阶段。
就手机而言,我们总结其发展路径是:强调通信功能→智能手机→个人助理。手机相较于 PC是更加贴近用户生活的终端设备,因而用户天然会产生这种需求,但现阶段的手机智能化程度不足,因而搭载大模型并发展出更多功能或成为一种趋势;PC早期能够 普及正是因为其生产力工具的定位,AIGC作为生成式AI自然会与生产力工具相匹配以帮助用户提高生产效率,因而AI PC也顺势兴起。
从硬件角度来看,AI PC/Phone需要解决三个问题:
其一,用什么加速推理?
其二,高规格大模型如何装载到设备里去?
其三,推理作为高功耗任务,设备的散热系统 应当如何配合?由此衍生出我们对PC及手机处理器、内存和散热系统的探讨。
对于问题一,目前的AI PC/Phone厂商均已给出答案,过去在端侧做深度学习或者机器学习通常会使用GPU作为计算单元,但随着AIGC在端侧落地,人工智能任务专 用处理器也顺势而生。
GPU虽然相较于CPU拥有更强的并行计算能力,但其处理神经网络仍然效率偏低,且功耗较高。NPU相较于GPU的优化主要集中在与CPU的交 互方面,NPU做的是张量计算,如果说GPU是把矩阵看做一个“计算单位”,那么NPU就是把神经网络看做一个“计算单位”,由此,NPU拥有了更优的能耗比。
我 们认为未来可能是CPU、GPU、NPU三U并存的时代,以GPU发展史作为参考,未来NPU可能也会同GPU一样,逐渐成为PC和手机必备的硬件之一,目前NPU仍 然与CPU集成在一起,未来可能也会发展出拥有独立内存的类似于独显的形态,并成为PC产品定位的重要标准(如现在的高性能本、游戏本通常是独显,而轻薄本、商 务本则一般为核显)。
目前NPU的发展仍处于早期阶段,我们认为其重点主要是走量,即在PC上普及这一硬件;未来随着NPU逐渐为用户所接受并对性能提出更高要 求,参考GPU,则可能会带来更多的溢价空间,这一收入我们认为主要是在上游硬件厂商(NPU供应商)、大模型供应商和终端设备生产商之间分配。
对于问题二,目前PC和手机的内存相对较小,对大模型的承载能力有限,而大模型又是达到一定参数量级才会有智能的涌现,因而为了使大模型给用户带来更好的体验, 一方面需要对模型进行裁剪和量化,另一方面也需要拔高设备的内存配置,使其在存储、传输和计算方面更加平衡。目前在终端设备落地的大模型仍然是以数十亿参数量 级的为主,就性能方面尚有提升空间,未来高规格大模型产品化势必会对终端设备的内存提出更高要求。
对于问题三,作为电子设备领域的重要一环,PC和手机的散热问题一直备受关注,作为高算力AI芯片的NPU会对设备的散热系统提出更高要求,因而随着搭载在AI PC 和AI Phone上的模型规格不断提升,NPU性能释放可能会更加激进,我们认为这将带来电子产品散热方案的更新换代以及相关上下游的机会。
大模型在端侧落地,主要受益方包括硬件(如NPU等)设计制造厂商、大模型提供商和终端设备生产商。
尽管目前AI PC及AI Phone仍处于商业化早期阶段,但论及其 商业模式,我们认为终端设备生产商可能是核心,原因如下:终端设备生产商是唯一直接对客的角色;此外,其亦须基于软硬件厂商协同构筑的底层生态(如Intel和微 软的合作)将大模型预先装载进终端设备产品,这一生产过程的差异化竞争主要集中在散热模组设计、硬件组装能力和模型蒸馏水平等方面。
从收入来看,终端设备生产 商一方面可基于NPU这一新硬件对产品进行提价,另一方面向用户收取大模型及相关应用的服务费;
从成本来看,终端设备生产商一方面须向硬件设计制造商采购基础 部件,另一方面须向大模型提供商支付模型调用费。总结来说,终端设备生产商作为中间人,将模型、硬件和C端用户串联起来,赚取差价的同时也赚取服务费(如对于 企业用户,卖设备的同时还提供模型部署服务),由此,终端设备生产商可能会终结此先大模型在云端通过API接口或类ChatGPT应用提供服务时以大模型厂商为核心 的单一商业模式时代,并成为争抢流量入口的新生力量。
来源:国海证券
报告节选内容如下:
资料下载:公众号《侠说》