当前位置:首页|资讯|AI大模型|生成式AI|大语言模型

行业首次把70亿AI大模型装进手机,天玑9300又将一军

作者:中关村在线发布时间:2023-10-18

原标题:行业首次把70亿AI大模型装进手机,天玑9300又将一军

10月18日,联发科与vivo官宣合作,率先实现了10亿和目前行业领先的70亿AI大语言模型以及10亿AI视觉大模型在手机端侧落地,共同为消费者带来行业领先的端侧生成式AI应用创新体验。MediaTek的新一代旗舰级AI处理器APU与AI开发平台NeuroPilot,能显著提高大模型在终端侧的运行效率。

此前,生成式AI应用主要依赖于云端的大模型,这些模型具有数十亿甚至数千亿的参数量,需要大量的计算资源和网络带宽。而在手机端侧实现生成式AI应用,则需要更高的算力效率和更低的功耗。由此可见,天玑9300的APU(NPU)性能有大幅度提升,足以满足70亿参数规模AI大语言模型在手机端落地。

除了和vivo合作外,还和生态内的多个合作伙伴强强联手。此前,联发科就已与百度联合发起飞桨和文心大模型硬件生态共创计划,还利用Meta大语言模型(LLM)Llama 2和APU和NeuroPilot建立完整的终端侧AI计算生态,近期还宣布与OPPO合作共建轻量化大模型端侧部署方案。

在GPU和CPU性能方面,根据博主数码闲聊站透露,联发科天玑9300由4颗Cortex-X4超大核、4颗Cortex-A720大核组成。

另外,联发科天玑9300率先支持LPDDR5T内存。经实测,LPDDR5T内存的峰值速度达到了9.6Gbps,比目前的LPDDR5X快13%,量产之后将成为全球速度更快的移动闪存。

综合来看,天玑在9300在CPU、GPU、APU三个方面都实现了跨越式的提升。看来今年的第四季度手机市场会竞争得十分激烈,让我们拭目以待。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1