当前位置:首页|资讯|AI大模型

百亿资金涌入手机大模型,用大模型重构手机

作者:中国战略新兴产业发布时间:2024-01-02

原标题:百亿资金涌入手机大模型,用大模型重构手机

百亿资金涌入手机大模型,用大模型重构手机

中国战略新兴产业融媒体记者 赵涵

2023年,手机行业依旧在寒冬之中。但与往年不同的是,今年的手机市场似乎有了新的生机与希望。

AI和终端的融合被视为新的创新锚点,将带动产业链共振。在手机同质化越发严重的当下、厂商难以挖掘新的增长点之时,AI大模型被寄予了沉甸甸的期望。

01 AI大模型开启手机新赛道

2007年第一代iPhone的发布,拉开了从功能机到智能机时代的序幕,手机的功能属性和在人们工作生活中的地位被重新定义。此后,虽然智能手机拥有了更大的屏幕、更好的影像、更快的速度、更多样的功能……但似乎已经很久没有出现令人眼睛一亮的颠覆性创新。

一般认为,大模型从根本上改变了人机交互的方式,从传统的命令式交互到基于人意图的交互。大模型本身的对话自然交互能力、意图理解能力会有一个非常大的提升。智能手机作为我们最重要的移动设备,必然会深度参与这一颠覆性的变革。

众多手机厂商提早意识到这一点,纷纷将大模型在手机端的应用提上了日程,而几乎所有厂商都优先选择从AI助手切入,诸如语音助手与大模型的结合,很多都已经到了内测甚至公测阶段。

今年5月,谷歌在I/O开发者大会上就宣布将在Pixel上内置端侧大模型,随后,主流手机厂商陆续被曝将在手机上支持大模型,其中就包括三星、华为、小米、OPPO、vivo、荣耀等厂商。

华为的鸿蒙4.0在今年全面接入盘古大模型,成为全球首个嵌入AI大模型能力的移动终端操作系统。

小米也在今年10月宣布自研AI大模型已经接入小米澎湃OS,这一系统将承接小米集团未来的新战略。目前,小爱同学在AI大模型的加持下,拥有了文本创作、AI扩图等能力,这些能力在小米手机14系列已有体现。

vivo在11月正式发布自研大模型矩阵蓝心大模型(BlueLM),包含十亿、百亿、千亿三个参数量级,并推出基于其打造的功能应用“蓝心小V”和“蓝心千询”。

在ColorOS 14中,OPPO内置了安第斯大模型(AndesGPT),该模型包含了从十亿到千亿不同参数规模的多种模型,并将与自研的潘塔纳尔智慧跨端系统全面融合。12月27日,OPPO对外表示,即将发布首个端侧应用70 亿参数大模型、潮汐架构以及生成式的视觉模型。

12月26日,荣耀表示,将在1月中旬的荣耀开发者大会上推出新MagicOS 8.0系统和自研端侧7B(70亿参数规模)大模型“魔法大模型”。12月28日,荣耀公布MagicOS 8.0的基于平台级AI的交互新功能——任意门,即基于用户意图,跨应用一步直达。

调研机构Canalys预测,2024年,AI手机出货量将达到6000万部。虽然AI手机的销量仅占手机大盘的5%,但比起硬件创新,业内人士认为,基于对AI大模型的投入,手机行业将有可能构建软件驱动硬件并且硬件不断泛化的全新战略格局。

02 AI大模型植入手机并非易事

手机厂商密集布局自研大模型,主要是因为通用大模型无法完美适配手机。

在手机上使用AI大模型并非新鲜事,ChatGPT、文心一言、讯飞星火、通义千问等通用大模型都推出了App版本,允许用户在移动端体验。不过这些App依赖的都是云端大模型,需要调运服务器算力并进行数据传输,因此也存在成本和安全问题。

vivo副总裁、OS产品副总裁周围曾在接受媒体采访时表示,目前调用一次云端大模型的平均成本在0.012-0.015元。考虑到每个手机厂商至少有上亿的用户量,假如每人每天调用10次,那么每年产生的成本就会达到数十乃至上百亿元。这部分成本由厂商长期负担不现实,但由用户付费也会降低使用体验和意愿。

此外,作为全球普及率、使用率最高的终端硬件,手机中存储着大量用户隐私信息,如果被上传到云端便会存在安全隐患。

为此,厂商们都在致力于自研大模型,并且努力将大模型部署在手机本地,仅利用芯片的算力生成结果,无需联网也能运行,也就是所谓的端侧大模型。相较云端大模型,端侧大模型由于利用了手机终端的闲置算力资源,减少了数据传输,因此在很多场景下会更加高效、便宜、安全。

但是,把AI大模型植入手机并非易事。

目前主流的云端大模型,参数量都在千亿级别,对于内存、算力、功耗的需求是一台手机根本满足不了的。正因如此,手机厂商自研的端侧大模型体量都比较小,将参数压缩到了数十亿到百亿左右,以便在手机端运行。

就目前来看,手机厂商布局大模型主要采用两种路径,一是以端侧计算的模式,二是端侧和云端两条路径并行。

轻量化、无需联网的端侧大模型,在响应速度、算力需求和信息保护上有与生俱来的优势,但在模型能力上无法媲美云端大模型。这是因为参数是衡量一个AI大模型质量的重要指标之一,通常情况下,参数越多,大模型能力也就越强大。

为了实现大模型体验和手机性能的平衡,厂商们目前普遍采取了“端云协同”的策略,同时部署端侧和云端两种模型,根据不同的应用场景和需求来进行选择。比如,涉及个人隐私、金融数据等信息的任务,以及知识问答、写作绘画等简单任务就可以使用端侧能力,而训练模型等复杂任务则可以调用云端能力。

端云协同可以最大化地发挥“端侧快”和“云侧强”的优势,同时还能解决信息安全隐患、云端算力成本过高等问题,可以说是现阶段打造大模型手机的最优解。

但大模型是公认的烧钱大户,手机厂商开始“重金”投入这一赛道。无论是在端侧还是云端,其数据、算力、人工等方面的成本对于开发商来说都是一笔不菲的投入。从目前公开的投资额来看,各大手机厂商在AI大模型以及操作系统上的投入资金已高达百亿。

03 对芯片提出更高要求

端侧AI大模型是手机厂商们的“必争之地”,然而,AI大模型走进手机对芯片提出了更高要求。在算力、存储方面,手机芯片该如何满足端侧大模型千百亿级的参数要求呢?

高通、联发科等手机芯片企业已经开始布局。10月24日,高通发布第三代骁龙8,在端侧可运行超100亿参数的大模型,面向70亿参数的大预言模型每秒可生成20个token,在终端侧只需0.5秒就能利用Stable Diffusion完成文生图。

10月24日,高通推出第三代骁龙8芯片,在CPU上采用1+5+2的八核架构设计,具体包括一个3.3GHz的Cortex-X4超大核,五个3.2GHz的Cortex-A720大核,以及两个2.3GHz的Cortex-A530小核,相较前代CPU峰值性能提升30%,能效提升20%。

据悉,骁龙8 Gen3重新设计AI计算单元,采用全新微架构推出Hexagon NPU,最高支持45 TOPS算力,AI计算能力提升98%,能效提升40%。

联发科自然也不甘示弱,11月6日晚间,联发科发布专为生成式AI设计的第七代AI处理器 APU 790,内置硬件级生成式AI引擎,处理速度是上一代的8倍,能实现更加高速且安全的边缘AI计算。

此外,联发科官宣旗舰5G生成式AI移动芯片天玑9300。在CPU上创造性地采用了“全大核”的架构,最高频率可达3.25GHz,包含4个Cortex-X4超大核、4个主频为2.0GHz的Cortex-A720大核,峰值性能较上一代提升40%,功耗节省33%。

针对AI大模型参数大、内存大的难题,联发科大幅减少AI大模型对终端内存的占用,支持终端运行10 亿、70亿、130亿、最高可达330亿参数的AI大语言模型。

11月13日vivo发布的高端旗舰新品X100系列,作为全球首个百亿大模型在终端调通的大模型手机,首发搭载了联发科AI芯片天玑9300。

中科计算技术西部研究院战略专家王军辉表示,未来端侧AI大模型的部署“一方面要探索适合轻量级部署的模型,另一方面要推出匹配大模型的加速器,在算力、效率和能耗上找到合适的平衡点”。

尽管高通、联发科等手机芯片企业为手机AI大模型端侧部署提供了一个权宜、暂时的解决方案,但真正让AI大模型重塑手机功能和生态还有很长的路要走,现在芯片设计体系还远远达不到大模型千亿级参数对算力、存储、能耗等各方面的要求。

总得来说,手机厂商虽然仍处在一个摸索的阶段,但他们几乎都认为,将大模型装入手机是一场“未来之战”。

毕竟无论是卷硬件、卷性能,还是卷价格,消费者的换机周期依旧还是很长。在此背景下,厂商们非常期待能够借助AI大模型,为手机带来新的体验和新的可能,来激发消费者的换机欲望。可以预知的是,大模型的加入会让市场适应新的变化。

纵观2023年,整个手机行业历经曲折,但颓势的背后往往意味着新的增长和技术萌芽。我们已经能够看到,随着智能手机市场的增量红利消失,各家厂商纷纷深耕技术,以求给用户带来更具创新的差异化体验。

在即将到来的2024年,手机市场也会迎来新一轮的行业周期,竞争将愈发激烈。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1