最近世界移动通信大会(MWC 2024)上展示了一系列先进通信技术,生成式AI技术尤其备受关注。随着生成式AI技术的普及,端侧AI技术也呈现出蓬勃发展的态势。相较于云端AI,端侧AI在保护用户隐私、无需联网、高速低延迟等方面具有明显优势。手机所具备的移动便携性、个人专属化、多模态感知以及通信计算能力,则使其成为端侧AI应用普及的最佳载体。
展会上,联发科重点展出了支持SDXL Turbo(Stable Diffusion XL Turbo)文本到图像的生成引擎、Diffusion视频生成技术,以及端侧生成式AI技能扩充( LoRA Fusion)等创新AI技术。联发科还首次展示了优化的Meta Llama 2生成式AI应用,该演示充分发挥了天玑 9300和8300芯片的独立AI处理器APU,在硬件加速引擎的加持下,可以在终端侧生成文章和摘要。
端侧AI手机应用的发展离不开联发科等头部芯片厂商带来的先进硬件和软件技术,移动芯片的生成式AI能力决定了手机端侧AI能力上限,作为边缘端侧AI技术的行业领军者,联发科很早就前瞻性地布局了端侧生成式AI技术,在尤为关键的端侧AI芯片能力上下足了功夫。联发科天玑9300旗舰移动芯片的独立AI处理器APU具有业界第一的移动端AI算力,并通过AI开发平台NeuroPilot构建了丰富的AI生态,所以能在业界最早实现支持Android、Google Gemini Nano、Meta Llama 2、百度文心一言、百川、vivo蓝心大模型BlueLM、OPPO AndesGPT等诸多全球先进的AI大模型。
早在去年,联发科就联合百度发起飞桨和文心大模型硬件生态共创计划,共同推进联发科硬件平台与飞桨和文心大模型适配。
联发科还利用Meta新一代开源大语言模型Llama 2以及联发科AI处理器APU、AI开发平台NeuroPilot建立完整的端侧AI计算生态,加速智能手机、物联网、汽车、智能家居和其他边缘设备的应用开发。经过全面适配和优化,目前天玑9300和天玑8300芯片已实现支持Meta Llama 2的70亿参数大模型应用。
近期,联发科再次宣布:天玑9300和8300已针对Google Gemini Nano大语言模型进行芯片和算法的适配优化,联发科与Google还计划携手推出可在天玑9300和8300上运行的APK,以助力开发者和OEM厂商部署Gemini Nano应用,加速端侧AI应用落地。
不仅如此,联发科还与手机厂商深度合作,推动生成式AI在手机端侧落地应用。联发科已携手vivo在vivo X100系列手机上落地端侧70亿参数大语言模型,并在端侧实验环境跑通130亿参数模型。在天玑9300芯片强大的AI算力和软件技术支持下,用户可以体验到vivo AI蓝心大模型诸多实用的生成式AI功能,包括超能语义搜索、超能问答、超能写作、超能创图、超能智慧交互等。
联发科还携手OPPO共建轻量化大模型端侧部署方案,共同推动大模型能力在端侧落地,共同开启“AI手机”新时代。在天玑9300芯片的先进生成式AI能力加持下,OPPO AndesGPT大语言模型实现了更优的性能、更快的速度。基于天玑9300芯片的出色AI算力,OPPO Find X7在AI-Benchmark排行榜上取得了业界第一的AI性能成绩,并为用户带来了AIGC消除、AI通话摘要等多种手机功能。
联发科天玑9300和天玑8300芯片对全球主流大模型的支持,不仅将有力推动端侧AI生态完善和应用创新,更可助力手机厂商的生成式AI技术出海,让“AI手机”惠及全球更多用户。
天玑9300集成联发科第七代AI处理器APU 790,性能和能效显著提升,生成式AI处理速度是上一代的8倍,可1秒内生成图片。在联发科混合精度INT4量化技术和内存硬件压缩技术加持下,天玑9300最高支持终端运行330亿参数AI大语言模型。APU 790还支持生成式AI模型端侧“技能扩充”技术NeuroPilot Fusion,利用业界先进的LoRA技术赋予基础大模型更加全面的能力,满足端侧AI用户个性化体验需求。天玑8300在同级产品中率先支持生成式AI,至高支持100亿参数AI大语言模型,加速端侧AI体验向主流市场普及。
可以清楚地看到,联发科正在从多个层面全力推动端侧AI能力的进化和普及。通过芯片架构的革新、软硬件的协同和生态创新的综合推动,加速了AI手机时代的到来,使全球更多手机用户能够深刻体验到生成式AI的魅力。我们深信,在全生态系统的共同努力下,一个全新的移动“智能体”时代即将来临,科幻电影般的全场景智慧生活将成为现实。