当前位置:首页|资讯|阿里巴巴|生成式AI|MaaS

云厂商鏖战大模型|甲子光年

作者:甲子光年发布时间:2023-04-12

原标题:云厂商鏖战大模型|甲子光年

阿里巴巴所有产品将进行大模型改造。

作者|赵健

在刚刚过去的3月,以大模型引领的生成式AI浪潮在全球科技圈狂飙,甚至以天为单位迭代。

如今,这股大模型风潮从海外刮到了国内,并且愈演愈烈。

本周,王小川、商汤科技、昆仑万维先后更新大模型动态。在这场争先恐后的大模型浪潮中,创业公司基本还处在招兵买马的阶段,云厂商成为当下唯一对公众开启类GPT大模型邀测的公司。

上周五,阿里云刚启动大模型“通义千问”邀测,而在昨天的阿里云峰会上,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇正式宣布:阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面改造。目前,钉钉、天猫精灵已经接入测试,将在评估认证后正式发布新功能。

张勇认为,面向AI时代,所有产品都值得用大模型重新升级。

以ChatGPT为代表的AI大模型是一个划时代的里程碑。英伟达CEO黄仁勋称之为“AI 的 iPhone时刻”,比尔·盖茨评价为“不亚于互联网诞生”。

张勇指出,大模型是一场“AI+云计算”的全方位竞争,超万亿参数的大模型研发,并不仅仅是算法问题,而是囊括了底层庞大算力、网络、大数据、机器学习等诸多领域的复杂系统性工程,需要有超大规模AI基础设施的支撑。

面对全新的AI时代,首次兼任阿里云智能集团CEO的张勇表示,阿里云已经做好了准备。通过IaaS、PaaS、MaaS三层智算体系的完整平台化打造,阿里云可为各行业及企业打造自己的专属大模型。张勇还表示,未来阿里云面向行业的专属模型的算力成本,有望降低到今天的1/10甚至1/100。

从单纯的AI技术比拼,到全面的算力体系竞争,阿里云将云厂商的大模型鏖战,推进到全新的层次。

1.云厂商打响大模型军备竞赛

大模型的成功背后,云厂商扮演了关键的角色,就连推出了ChatGPT、站在全世界聚光灯下的OpenAI,也离不开云厂商——微软Azure的助力。

今天,几乎所有的大模型都是基于谷歌在2017年发布的论文《Attention is all you need》中所提出的Transformer模型。要完成大模型的训练,雄厚的资金实力是必要条件。

比如,OpenAI的GPT-3模型训练耗费了大约1200万美元,有人调侃为“Money is all you need”。

2019年7月,OpenAI获得了微软的10亿美元投资,其中一半为Azure云计算的代金券。今年1月,微软再次宣布未来几年向OpenAI投资100亿美元,Azure将为跨研究、产品和API服务的所有OpenAI的工作负载提供支持。

这是一个双赢的合作,OpenAI获得了训练大模型所必需的财力与算力,而微软也成为OpenAI的独家云供应商,以及利润优先分成权。

可以说,如果没有微软的支持,今天就不会有ChatGPT,黄仁勋口中反复强调的“AI的iPhone时刻”也不会到来。

微软四年前这笔AI投资获得了巨大回报。在最近一次财报中,微软表示已经有200多个客户——从毕马威到半岛电视台——正在使用Azure OpenAI服务,仅Azure ML的收入就连续五个季度增长超过100%,安盛、联邦快递和H&R Block等公司都选择该服务来部署、管理和治理其模型。

在微软尝到AI的甜头之后,其他云厂商也坐不住了。

在微软宣布追加投资OpenAI之后不到一个月(2月6日),谷歌向AI初创公司Anthropic投资了约3亿美元,后者开发了一款与ChatGPT相抗衡的聊天机器人。谷歌云成为Anthropic的首选云提供商。此次合作涉及谷歌云为Anthropic构建大规模GPU和TPU集群,以训练其AI系统。

紧接着,2月22日AWS宣布与美国AI创企Hugging Face扩大合作,以加速构建生成式AI应用的大型语言模型和大型视觉模型的训练、微调和部署。Hugging Face是OpenAI的主要竞争对手之一。

在国内,同样掀起一股类ChatGPT狂潮。

2023年1月,百度内部开始正式规划用大模型做出一款对标ChatGPT的产品,不久之后率先发布文心一言,并打包牵引出它的云服务。

阿里则显得更迅猛。

早在阿里巴巴上一季度的财报会上,张勇就首次预告阿里将全力构建好自己的AI预训练大模型,并为市场上风起云涌的模型和应用提供好算力的支撑。更有消息传出,阿里云是国内高端GPU囤货量最大的云厂商。

上周,阿里云启动大模型 “通义千问”邀测;昨天又在云峰会上宣布将阿里所有产品接入通义千问,并开放通义千问的能力,帮助每家企业打造自己的专属大模型。

再加上还未公开亮相但一直声音不断的腾讯混元大模型、华为盘古大模型,大厂们纷纷入局,这场大模型的军备竞赛已经打响了。

2.必须抓住的机会

业界通常认为,全球云厂商高速增长的“黄金时代”已经过去,一个普遍的事实是,云厂商们都遭遇了增长乏力的现状。

海外三家云巨头亚马逊、微软、谷歌,在2022年Q4的合计营收虽然同比增长25.7%至439.6亿美元,但环比却出现了5.9%的下降。细分到每一家,亚马逊AWS、微软Azure、谷歌云营收同比增速分别为20.2%、31.0%和32.0%,环比下降为7.3%、4.0%和5.6%。

在2022年财报电话会上,亚马逊首席财务官Brian Olsavsky表示亚马逊已经注重到了AWS营收的持续放缓趋势。

云收入放缓的部分原因在于,企业用户对于云计算的支出需求在下滑。亚马逊高管表示,AWS客户希望减少在云计算方面的支出。

研究机构TrendForce今年2月也发布预警,Meta、微软、谷歌、亚马逊这四家云厂商的服务器采购量可能从年增6.9%放缓至4.4%,这一举动将拖累2023年全球服务器出货量年增长率下滑至1.87%。

为了应对业务下滑趋势,亚马逊甚至已经开启了两轮裁员,其中就包括AWS部门。

但大模型有望改变云增长持续放缓的局面,打开新的增量市场。

在深度学习兴起的头十年之间,AI模型基本上是针对特定应用场景需求进行训练的“小模型”,属于传统的定制化、作坊式的模型开发方式。但在2015年至2020年期间,用于训练大模型的计算量增加了6个数量级,并且在手写、语音和图像识别、阅读理解和语言理解等方面超过了人类。

大模型的出现能够提高模型的通用性、降低AI落地应用的门槛,实现AI从“手工作坊”到“工厂模式”的转变。

在Gartner发布的2022年重要战略技术趋势中,以大模型驱动的生成式AI就位列 12 项重要战略之首。同时Gartner预计,到 2025 年,生成式 AI 将占所有生成数据的 10%,而目前这一比例还不到 1%。

但是,训练大模型需要消耗巨大的算力。OpenAI的研究表明,2012至2018年6年间,在最大规模的人工智能模型训练中所使用的计算量呈指数级增长,其中有3.5个月的时间计算量翻了一倍,比摩尔定律每18个月翻一倍的速度快得多。

在此背景下,公共云将是AI新型基础设施的最佳载体。

硅谷知名风投A16Z在博客中表示,生成式AI的大量资金最终都稳定地流向了基础设施层——以亚马逊AWS、微软Azure、谷歌GCP为主的云厂商,以及以英伟达为代表的GPU厂商。

据A16Z估计,应用层厂商将大约20%~40%的收入用于推理和模型微调,这部分收入通常直接支付给云厂商或第三方模型提供商,第三方模型提供商也会将大约一半的收入用于云基础设施。因此,总的来看生成式AI总收入的10%~20%都流向了云提供商。

巨大的市场需求,在收入放缓的背景下,刺激了云厂商对AI的投入不降反升。

在新的AI时代,率先拿到大模型入场券的云厂商,将有机会改写市场格局。

3.GPU是基础但不是全部

作为大模型的“发动机”,以GPU为核心的算力也被放在了聚光灯下。

进入2023年,英伟达的股价也乘着大模型的东风一飞冲天,仅仅头3个月,市值增长超过80%。

不过,人们常常忽略的一点是,算力只是训练大模型的必要不充分条件。

实际上,微软Azure为了支持OpenAI训练大模型,除了准备了上万颗英伟达A100 GPU芯片之外,也做了大量的优化工作。

微软Azure与OpenAI一起共同设计了一台超级计算机,专门用来做GPT模型的训练,同时要确保它们不与Azure提供的其他服务产生冲突。

在某些时候,这些GPU需要相互交流来分享他们所做的工作。对于AI超级计算机,微软必须确保处理所有芯片之间通信的网络设备能够处理这种负载,并且它必须开发出最大限度地利用GPU和网络设备的软件。同时,微软还要考虑数据中心的断电、散热等问题。

在阿里云CTO周靖人看来,GPU很重要但不是全部:“大模型的训练往往需要几千甚至上万张GPU卡共同协作来完成,卡与卡之间的连接,机器与机器之间的连接,如何构建一个高吞吐、低延迟的网络,以及高效的存储,都是智算基础设施的重要环节。如果没有这些环节,光有GPU的卡,就很难跑出规模超级大的模型。

阿里云是国内最早涉足AI大模型研发的云厂商之一,因此对于大模型的训练经验有足够的发言权。

早在2019年,阿里就发布大规模预训练语言模型structBERT,并登顶全球NLP权威榜单GLUE,成就国内大厂在AI领域的突出贡献之一。此后,2021年,阿里先后发布国内首个超百亿参数的多模态大模型M6,并演进至全球首个10万亿参数大模型。

OpenAI的前政策主管Jack Clark曾公开点评M6模型,称它“规模和设计都非常惊人。这看起来像是众多中国的AI研究组织逐渐发展壮大的一种表现。”

像M6这样的超大模型,极其考验算力基础设施,这是阿里云作为亚太第一、全球第三的云厂商的市场地位之外,更重要的技术证明。

周靖人把它总结为全新的 “飞天智算基础设施”,主要包含三层系统服务能力:

  • IaaS:阿里云可支持最大十万卡GPU单集群规模,是可承载多个万亿参数大模型同时在线训练的智算集群,并可为万卡规模AI集群提供无拥塞通讯的自研RDMA网络架构等;
  • PaaS:以机器学习平台PAI为核心,阿里云可支持万卡的单任务分布式训练规模,AI训练效率提升可达10倍,推理效率提升可达6倍,覆盖全链路AI开发工具与大数据服务,深度支持了通义大模型的研发;
  • MaaS(Model-as-a-Service):阿里云提供通义大模型系列和以之为基础的企业定制大模型,以及国内首个“模型即服务”开放平台魔搭社区。

阿里云全新的智算框架已通过了内部更严苛的考验与实践。周靖人介绍称:“比如M6模型从最开始的百亿参数规模,一直训练到后来的10万亿参数规模,在训练过程中解决了很多系统问题、网络问题、调度问题、编译系统问题。”他总结到,阿里云的基础设施具备了训练至少10万亿参数规模模型的能力,是能够快速推出通义千问这样一个语言大模型的核心基础。

在本次阿里云峰会上,首次兼任阿里云智能集团CEO的张勇表示,面向智能化时代,阿里云已经做好了准备。

4.阿里云把大模型普惠进行到底

作为大模型的探险者,OpenAI的成功几乎是烧钱烧出来的。据估算,OpenAI的模型训练成本高达1200万美元,GPT-3的单次训练成本高达460万美元。

这当然极大提升了大模型的进入门槛。而把大模型做得更普及、更便宜,将是接下来大模型的主要趋势之一。

在云峰会上,张勇对阿里云的战略定位就两句话:让算力更普惠,让AI更普及。

2022年云栖大会上,周靖人首次提出model as a service模型即服务(MaaS)。阿里云是在全球第一个提出MaaS概念的大公司。

MaaS理念来源于市场和实践。周靖人观察到,今天不是所有的企业都需要从头开始训练,也不需要从头去做多种语料训练,消耗大量的机器资源,这无异于“重复造轮子”。

“我们希望今天在通义千问模型之上,结合企业的场景、企业的知识体系、企业的行业特殊需求,产生一个企业的专属模型,比如企业自己的智能客服、智能导购、智能语音助手、文案助手、AI设计师、自动驾驶模型等。”周靖人说。

阿里云新开辟的MaaS市场一呼百应。

阿里云峰会当天,OPPO安第斯智能云宣布,将联合阿里云打造大模型基础设施,基于通义千问进行持续学习、精调及前端提示工程,未来建设服务于OPPO海量终端用户的AI服务。

同时,中兴通讯、吉利汽车、智己汽车、奇瑞新能源、毫末智行、太古可口可乐、波司登、掌阅科技等多家企业表示,将与阿里云在大模型相关场景展开技术合作的探索和共创。

这还不够。行业专属大模型适合有一定研发能力的大型企业客户,而面向广大的中小企业与个人开发者,阿里云联合达摩院牵头建设了国内规模最大的AI模型服务社区“魔搭”。

阿里云联动澜舟科技、深势科技、智谱AI等17家机构,在魔搭以开源方式提供超800个AI模型,以及行业和学术热门的公开数据集,以及阿里巴巴集团贡献的专业领域数据集。

社区上线以来,在不到半年的时间内魔搭社区吸引了超百万用户,模型累计下载次数超过1600万,已经成为国内规模最大、最活跃的模型社区。

如今,MaaS的概念基本已经成为全球云厂商的共识,构建行业的专属大模型也成为云厂商正在进行的实践。

在最近一次财报中,微软表示已经有200多个客户正在使用Azure OpenAI服务;百度文心大模型已经在工业、金融、交通、媒体等领域,发布了10多个行业大模型。

周靖人表示:“我们比较欣慰地看到越来越多的行业、云计算厂商还有更多的互联网公司也开始认同这样的一个观点,甚至今天也开始按照这样一个观点去打造自己的产品服务体系。我们已经真正进入到了一个模型的世界。”

除了MaaS之外,阿里云的另一个核心战略就是——降价。

过去十年,阿里云提供的算力成本下降了80%,存储成本下降了近90%。阿里云通过软硬一体技术的研发来降低成本,先后自研了CPU倚天710、云数据中心处理器CIPU、数据中心网络等。

放眼全球,自研芯片也是AWS、谷歌等云大厂的共同趋势。

今年,阿里云将推出一款更接近云计算终极形态的算力产品——通用Universal实例,进一步屏蔽了传统IT的硬件参数,让数据中心真正成为一台超级计算机。通用Universal实例的价格对比上一代主售实例最高可下降40%。

除此之外,周靖人告诉「甲子光年」:“虽然有技术前瞻性与先发优势,但阿里云并没有停下创新的节奏。今天发布的是通义千问,其实也在做下一代的技术演进与布局。模型的二次开发、推理服务今天仍然非常昂贵,这也是阿里云要攻克的一个方向。”

张勇表示,云计算是AI大规模普及的最佳方式,“未来,我们希望在阿里云上训练一个模型的成本,能够降低到现在的十分之一,甚至是百分之一。即使是中小企业,也能通过云平台获得AI大模型的能力和服务。”

5.重构AI行业,需要比微软更彻底

当大模型开始普及,AI行业会发生哪些变化?

对此,张勇表示,AI大模型的出现是一个划时代的里程碑,人类将进入到一个全新的智能化时代,就像工业革命一样,大模型将会被各行各业广泛应用,带来生产力的巨大提升,并深刻改变我们的生活方式。他认为,面向AI时代,所有产品都值得用大模型重新升级。

在阿里云峰会上,张勇宣布,“阿里所有产品将用大模型全面改造。”

将大模型落地为应用实践,国外看微软,国内看阿里云。

微软是全球布局动作最快的云厂商。在OpenAI发布ChatGPT后不久,其大股东微软便马不停蹄对旗下软件产品进行了AI改造,把包括搜索引擎bing、协作工具Teams、ERP和CRM系统软件Dynamics 365等。

3月17日,微软在GPT-4官宣后的第二天,就迫不及待地将其接入Office套件,推出全新的AI功能Copilot(副驾驶),通过自言语言指令来自动创建文档、表格与PPT。

对于微软一系列“光速”变革,前钉钉副总裁、明略科技首席战略官张思成曾对「甲子光年」评价道:“动作快到不像微软。”

国内云厂商中,目前来看动作最快的是阿里云。

对于现有产品接入类GPT大模型做改造,并不只是对接一个API这么简单,不仅要保证两个产品之间的无缝对接,还要保证向前兼容已有的客户和服务,中间必须经过大量的测试和调试。

钉钉、天猫精灵将率先接入通义千问测试,并将在评估认证后正式发布新功能。

根据钉钉当天披露的demo演示,接入通义千问之后的钉钉可实现近10项新AI功能。通过类似微软Copilot“副驾驶”的设定,可随时随地唤起AI,开启全新工作方式。

比如,在钉钉文档中,通义千问可以创作诗歌小说、撰写邮件、生成营销策划方案等;在钉钉会议中,通义千问可以随时生成会议记录并自动总结会议纪要、生成待办事项,通义千问还可以帮助自动总结未读群聊信息中的要点。

最惊艳的是,钉钉展示了拍照生成小程序功能,上传一张功能草图,不用写一行代码,即可立刻生成订餐轻应用——这与GPT-4宣传片中展示的一张草图生成网站代码异曲同工。

此外,通义千问还将陆续嵌入阿里电商、搜索、导航、文娱等场景。比如在网购场景,用户如果想开生日party,通义千问可以帮助生成生日活动方案和购物清单。或许下一个killer app,就从阿里云的通义千问中长出来。

红杉资本将大模型驱动的生成式AI分为文本、代码、图片、语言、视频、3D等数个应用场景。红杉资本认为,生成式AI至少可以提高10%的效率或创造力,有潜力产生数万亿美元的经济价值。

黄仁勋将ChatGPT的诞生称之为“AI的iPhone时刻”。正如App Store产生之后才构建了移动互联网庞大的生态,只有真正构建起大模型的生态,AI的生产力革命才真正带来价值。

这场大模型的鏖战才刚刚开始。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1