随着ChatGPT的火爆,AI大模型技术应用爆发,包括百度、阿里巴巴、360、华为、昆仑万维在内等大小厂商都纷纷相继发布了自己的大模型产品,与此同时云市场也在加速变革。
4月18日,火山引擎在其举办的“原动力大会”上发布自研DPU等系列云产品,并推出新版机器学习平台:支持万卡级大模型训练、微秒级延迟网络,让大模型训练更稳更快。
火山引擎总裁谭待表示,AI大模型有巨大潜力和创新空间,火山引擎会服务客户做好大模型,共同推动各行业的智能化升级。与其他云厂商力推自家大模型不同的是,火山引擎将接入多家大模型深度合作,为企业和消费者提供更丰富的AI应用。
让大模型训练更快更便宜
但火山引擎不做大模型
公开信息显示,ChatGPT成为人类历史上最快获得上亿用户的消费级互联网应用。最新的GPT-4大模型,更是在法律、数学、生物学等多项测试中超过90%的人类。
谭待表示,国内很多科技公司投入到大模型建设中,他们有优秀的技术团队,也有丰富的行业知识和创新想法,但往往缺乏经过大规模场景实践的系统工程能力。火山引擎要做的就是为大模型客户提供高稳定性和高性价比的AI基础设施。
据悉,火山引擎机器学习平台经过抖音等海量用户业务长期打磨,支持单任务万卡级别的超大规模分布式并行训练场景。GPU弹性计算实例可灵活调度资源,随用随取,最高可以为客户节省70%的算力成本。
字节跳动副总裁杨震原分享抖音的机器学习实践
谭待透露,火山引擎的大模型云平台获得智谱AI、昆仑万维等众多企业的良好反馈。国内大模型领域,七成以上已是火山引擎客户。但在采访中,谭待对红星新闻记者表示,火山引擎自身不会做大模型。
大模型不会一家独大
“未来将是‘多云多模型’时代”
谭待表示,目前大模型还在发展初期,面临数据安全、内容安全、隐私保护、版权保护等许多问题,需要努力解决。但是可以预见,大模型将带动云上AI算力急剧增长,AI算力的工作负载与通用算力的差距会越来越小,这会为各家云厂商带来新的机会,同时也会对数据中心、软硬件栈、PaaS平台带来新的挑战。
以数据中心的算力结构为例,谭待表示:“大模型需要大算力,虚拟化会带来资源损耗。规模越大,损耗就越多。未来3年内,大规模的算力中心,都将形成‘CPU+GPU+DPU’的混合算力结构,CPU负责通用计算,GPU负责AI计算,DPU负责资源卸载、加速和隔离,提升资源效率”。
此次原动力大会上,火山引擎发布了新一代自研DPU,实现计算、存储、网络的全组件卸载,释放更多资源给业务负载。基于自研DPU的各类计算实例性能也有显著提升。例如:适用于大模型分布式并行训练场景的GPU实例,相较上一代实例集群,性能最高提升3倍以上。
谭待表示,在大模型及下游应用发展推动下,无论传统企业还是初创企业,对AI算力都有迫切需求,企业使用多家云服务将成为常态。同时,各行业有自己高质量的私有语料,大模型不会一家独大,而是会在千行百业生长,形成多模型共生甚至协作的生态。“未来将是‘多云多模型’的时代”,谭待称。
AI大模型的爆发
或成为众多云厂商的超车机会
据公开数据显示,目前公有云服务市场的市场份额排名前五名分别为:阿里云、腾讯云、华为云、中国电信天翼云以及AWS,前五名总共占据了74.6%的市场份额,其余云服务厂家的份额有限。
对此,业内人士表示:AI大模型对算力的需求不同于以往,大模型的爆发或许将成为云厂商弯道超车的机会。火山引擎依托于字节跳动,资金与技术没有明显短板,但因入场时间较晚,在竞争中略显乏力。但针对大模型训练云服务发力,或许将成为火山引擎发展的一个重要拐点,同时也给AI市场的硝烟添了一把“火”。
红星新闻记者 胡沛 李星龙