互联网时代的杰作是「连接」,人工智能时代的标志是「决策」。——在过去的一个月,对于人工智能时代的定义区分,大多数行业人士在大模型的创造力上找到了答案。
举个例子,为何大数据与机器学习算法的结合早已出现,过去的十年(2012年到2022年)却仍然停留在互联网时代,而 ChatGPT 的出现却勾画出了人们心中所想的人工智能时代呢?
这背后的本质,概括来说,其实是 AI 算法能对生产力产生多大的影响。所谓「生产力」,形象的说法是机器与人的 ROI 比例区分,而大数据与过去统计学习、小模型深度学习的结合,没有在生产过程中明显降低人力的投入。例如,过去十年全球 AI 研究者在计算机视觉的探索上,扮演了高净值的「科技民工」角色,AI 生产即使注入高门槛的科技属性,也还没有摆脱堆人力的「劳动密集型」属性,因此 AI 生产力的释放有限。
但在 GPT-3 为代表的大模型风潮中,大模型解决多项任务的「通用」表现让 AI 第一次有了从项目交付跨向平台赋能的可能,有效控制成本、提高收益,并在ChatGPT 的产品设计创新中爆发大规模可行性、在 GPT-4 中愈加彰显「通用人工智能」(AGI)潜力。借助大模型,AI 的落地由此第一次称得上「智能」生产力,AI 时代来临。
比方说,ChatGPT 较于互联网,一次「询问」的搜索,互联网产品的反馈结果是一条条检索信息,需要用户花大量的时间去筛选、甄别;而人工智能产品,如 ChatGPT,是基于检索信息做「决策」性的整合,一键生成匹配用户询问的答案,节约了大量的时间成本,以及人力成本。
然而,我们只停留在基于大模型的单一「产品形态」(如对话形态的通义千问、ChatGPT...)上是没有意义的。如果只将想象力放在「沟通」上,那么容易走 Siri 为代表的对话产品老路。对于人机对话,过去 AI 领域的研究学者囿于「改善沟通语气」的目标上,导致了上一代智能对话产品更多局限于情感慰藉的效果;而 OpenAI 的研究者率先注意到更背后的需求:「沟通」是为了提升解决问题的效率,所以他们将大模型的语言理解与生成能力,与对话做了结合,创造出了 ChatGPT。
由此再看 OpenAI 的通用人工智能路径:2020年推出的 GPT-3 是大模型的技术,2022年推出的 ChatGPT 是基于大模型的产品形态,2023年与可口可乐等企业合作则是基于大模型的「生态」创造。据 EnterpriseAppsToday 统计,截止 2023 年 1 月, OpenAI 已跟科技、教育、企服、制造、金融、零售等等行业的 902 家企业形成合作关系。技术-产品-生态是 OpenAI 的三部曲,其中,生态是 OpenAI 跑进人工智能时代的最后一公里。
目前,国内绝大多数的关注点聚焦在类 ChatGPT 的「产品」形态上,也就是第二步。但实际上,从2017年谷歌推出 BERT 以来,Transformer引领的大模型研究就已在中美两国如火如荼展开,又在 2020 年GPT-3 的爆红中吸取了堆数据、堆算力的训练启示,因此,早已进入大模型赛道的各家巨头,如海外的微软、谷歌,以及国内的阿里几乎处于同一起跑线。ChatGPT 虽然带来产品的创新,但技术含量并非不可超越,因此国内的科技巨头也很快成功追赶上,比如阿里、百度、智谱甚至360,都能很快推出自己的类 ChatGPT 产品。
但论最终「生态」的竞争,究竟谁更有优势?背后其实是综合能力的较量。而综合能力,比拼三点:一是应用大模型的基础设施;二是先有落地场景与平台的比拼;三是降本增效的工程能力。囿于综合能力的限制,「生态」迟迟未在国内开展。
直到今天。
刚刚兼任阿里云智能集团CEO的张勇(花名:逍遥子)在阿里云北京峰会上放出重磅消息:阿里所有的产品都将用「通义千问」大模型改造。此外,阿里云智能集团CTO周靖人称,通义千问将基于阿里云基础设施向企业开放,企业可以在阿里云上训练企业自己的行业、垂类大模型。到这个时候,中国 AI 行业者才第一次嗅到应用大模型的春风,国内大模型的逐赶者才意识到:
中国大模型「生态」的角逐,被阿里云领先了一个身位。
01 大模型在前,应用在后
如何从互联网时代迈入人工智能时代?
过去数月,这是威胁中国互联网时代利益既得者的最核心问题。不同于直播带货对传统电商平台的冲击,前者是在同一个范式(互联网)下的竞争,大模型产品 ChatGPT 的「一键搜索与生成」能力代表的是人工智能对信息链接的降维打击。
解决这个心头大患,中国的互联网创业者快速经历了两波发展:一,下场做大模型,如王小川、王慧文、李志飞等人;二,基于大模型做产品应用创新,如 Adobe、金山办公等没有大模型发电厂的团队。
加上微软应用 OpenAI 大模型能力的启示,互联网迈向人工智能的第一步最终选择了一条显而易见的道路:互联网连接平台的升级,例如:大模型+搜索,出现微软的New Bing、谷歌的 Bard;大模型+办公,出现微软的Copilot。这些产品都可以视为 Bing、谷歌搜索、MS Office 的 3.0 作品(PC互联网时代是1.0,移动互联网时代是2.0,人工智能时代则是3.0)。
毫无疑问,国内大模型的落地场景也首先会出现在各类先有的互联网产品上。而BAT、美团、字节等擅长打平台战的企业对此都有需求,然而,并非每个互联网巨头都有通用大模型的技术积累。同理,新一轮的 AI 浪潮中,拥有大模型积累的创业公司不具备成熟的互联网产品。因此,在这一局中,这一轮领跑者必须具备两个条件:一是大模型,二是落地场景。
而如上所述,大模型的较量中,大厂之间只要具备算力、数据与算法,效果没有本质上的差距,百度有文心、阿里有通义(包括M6/PLUG)、华为有盘古……所以决胜点之一就是应用的数量与质量。所以,当张勇表示阿里巴巴集团旗下全系产品都将接入 AI 大模型时,阿里云峰会的台下观众沸腾了——
阿里系产品家族:
•电商:天猫,淘宝,速卖通,闲鱼
•出行:高德,飞猪
•娱乐:优酷,淘票票,灵犀互娱,大麦,西瓜影视,微博
•生活:饿了么,淘鲜达,盒马
•搜索:UC浏览器
•办公:钉钉
•家居:天猫精灵……
OpenAI 没有大规模产品形态,因此第一阶段只能依靠微软的应用产品来释放大模型的生产力,如落地成 NewBing 与 Copilot。其余大模型的竞争者还停留在技术与产品打磨的第一或第二阶段,生产力的释放也仍受到客观局限。兼备大模型技术(通义)、产品(通义千问)与应用(钉钉、天猫精灵等)的阿里,很自然地冲到了「生态」前面,成为独立缔造生态的玩家(区别于微软与OpenAI的联手缔造)。
阿里云北京峰会上,接入了「通义千问」大模型技术的钉钉,首次打开了国内 AI 时代智能产品的想象力——
新一代的钉钉向智能办公迈进:针对办公会议,钉钉可以在会议结束后自动生成会议纪要与待办事项;针对日常办公的文本写作,钉钉可以自动生成活动策划、会议策划等工作流程方案,以及文生图;针对群聊,钉钉可以自动生成群聊的聊天要点;针对开发,钉钉可以拍一张功能草图自动生成小程序……
在过去,文本总结、文本生成、文本翻译、文生图等等都是自然语言处理(NLP)中的一个个细分方向,大模型出现之前,NLP 研究者是各自选择一两个细分方向深耕,虽然各有精辟,但在落地上成本与效益不匹配,类似大炮轰小鸟;但大模型出现后,一个大模型就可以解决总结、生成、翻译等等多项任务,落地也就转为了高速公路的思路:虽然建设成本高,但覆盖用户广、使用频率高,就具备了商业可行性。
在未来,用大模型做单个产品的智能升级,将成为行业趋势,我们可以拭目以待。
和其它团队不同的是,阿里最大的优势是其场景丰富,覆盖电商、出行、娱乐、生活、办公、搜索等等品类,使其在大模型产品形态的创新上为「生态」做了更进一步的铺垫:
以「帮我制定一份五一出游攻略」的问题为例,若询问 ChatGPT,用户只能得到一份关于机票、酒店、当地交通、饮食等等方面的文字回答;而询问「通义千问」,用户不仅可以得到一份文字版的攻略,未来还能相应获取基于阿里产品生态及其外围合作商家所提供的机酒饮食娱乐等真实产品与服务:
阿里旗下每个应用单个拎出来均扛打,对其在「AI 生态」第一阶段的布局至关重要。
同时,阿里因为从 2019 年开始关注 Transformer技术做预训练大模型的探索,在大模型技术上有深厚积累,推出全球首个万亿级参数 M6 大模型,又率先在多模态方向上探索出通义系列大模型,为其本身应用软件的迭代升级做足了技术储备,相辅相成。
表面上看,这是阿里借助 ChatGPT 的一次领跑,但追根溯源,还是其打磨垂类产品、坚持大模型研发多年的厚积薄发。阿里入局大模型角逐,没有停留在单一的产品形态上,而是率先将重心放在缩小 AI 大模型与影响行业之间的鸿沟上,是其能领跑大模型「生态」的原因所在。
02 不能被忽视的「 AI 基础设施」
用大模型将旗下所有产品进行一次改造,是阿里从技术、产品迈向生态的第一步。
但一个完整生态的形成不能光靠阿里一家。「开放才能共赢」——这个观点在文生图模型 Stable Diffusion 凭借开源赶超 OpenAI 的 DALL·E 2.0 上得到了验证,在 HuggingFace 为代表的 AI 模型开源社区中也得到了验证,因此,国内的科技巨头如百度、阿里、华为在大模型角逐中也强调这一点。
如张勇所言,面向智能时代,所有的公司都在同一起跑线上。以通用人工智能(AGI)为中心的 AI 时代才刚刚拉开序幕,大厂也好,创业公司也好,大模型应用创业者也好,如何跑完「降本增效」的最后一公里才是最终华山决胜的关键所在。
我们必须认识到技术发展的一个客观需求:大模型的成熟,不是单一算法的胜利。与训练大模型的框架、算法同样重要的,还有计算、开发、服务等配套设施。「平民版」大模型是科学家挑战自己的主观命题,也是大模型落地行业的客观需求。
「尽管谷歌在这波大模型产品创新中落后 OpenAI 与微软,但我们不得不肯定它的一点是,谷歌做大模型会从底层架构(如 Pathways)、算力设施(如 TPU)等多方面投入,配合降低大模型的研发成本。研发成本低,最终基于大模型的产品应用成本才能低。」一位行业人士告诉雷峰网。
换言之,大模型的底层基础设施决定了它的能力下限,同时又决定了它的应用上限。
从阿里云北京峰会的发布重点来看,「通义千问」更像是阿里研究大模型过程中的一个中间形态,而非终点。在云计算、互联网应用(如钉钉、天猫精灵)与魔搭社区等等成果的加持下,诸如「通义千问」的大模型成为链接行业的重要一环。
大会现场,周靖人表示,每个企业都能在阿里云拥有一个专属的「大模型空间」,既可以调用「通义千问」的 AI 能力,也可以结合企业自身的行业知识与应用场景,训练出独有的「企业专属大模型」。换言之,阿里也要做 AI 时代的「发电厂」,成为给各个企业提供电力。
AI 浪潮来临,大模型的能力有目共睹,这衍生出一系客观的行业事实:
首先,不仅是阿里自己,相信国内大部分的公司都会用 AI 大模型将先有的软件升级一遍,这无疑会引发训练与推理大模型的算力需求井喷。但另一方面,国内大多数公司没有能力自建大模型训练的基础设施;即使对于许多行业头部企业,训练大模型的费用也高于预期,对成本与效率的需求需要平衡。
千亿级参数的大模型研发,不是单一的算法问题,而是囊括了底层算力、网络、存储、大数据、AI 框架、AI 模型等复杂技术的系统性工程问题,需要 AI 与云的全栈技术能力;云服务来看,AI 基础设施需要超大规模且超高性能的算力底座,这又指向公共云是最佳载体。
阿里云则早已锻造了强大的基础设施:
在IaaS层,阿里云自建的「飞天智算平台」是目前国内规模最大的智算中心,单集群可达10万台规模,千亿级文件数,EB级别存储空间,千卡并行效率达 90%,可以解决计算拥堵问题,提升计算效率。在PaaS层,基于飞天智算的阿里云深度学习平台PAI,可将计算资源利用率提高 3 倍以上,AI 训练效率提升 11 倍,推理效率提升 6 倍。
在技术创新和规模效应的加持下,阿里云则将普惠推向了极致,据张勇介绍,跟十年前相比,阿里云提供的算力服务价格降低了 80%,存储服务的价格降低了接近 90%。
在阿里云北京峰会上,周靖人还发布了一个致力于「大模型生态」建设的计划——「飞天免费计划」,让开发者免费试用云上开发大模型应用来解决业务问题。
周靖人称,阿里在拥抱「Serverless」(去服务器化)的概念,同时推出了一款新的弹性计算产品,叫「U 实例」。U 实例具有通用计算特征,能够聚合当前多种服务器的规格,无需开发者进行繁琐的资源匹配,可以降低生态伙伴在应用大模型开发过程中使用弹性计算的门槛,促进云上的大模型应用开发。
在IaaS和PaaS之上,阿里的另一个杀手锏是MaaS(Model as a service),作为业界首个提出这一理念的企业,阿里在去年云栖大会发布了国内首个 AI 模型开源社区——魔搭(ModelScope)。而这也被认为是链接大模型、开发者及下游应用的关键一环。
不久前,微软亚洲研究院与浙江大学的研究团队将 ChatGPT 与 HuggingFace 结合,推出了大模型的一个新玩法,叫「HuggingGPT」。HuggingGPT 将大模型产品形态化作一个控制器,背靠模型开源社区HuggingFace,用户在前端提问,大模型可以调用 HuggingFace 里在这个问题上表现最好的开源模型去解答。本质上,这是大模型+开源项目的联手胜利。
同样地,阿里推出「通义千问」后,「通义千问+魔搭社区」也打造了类似的模式。在魔搭社区上,不仅仅是阿里在开放AI模型,还有智谱 AI 等知名大模型团队均在魔搭社区上贡献了自家模型,目前,社区模型量已超过800 个,总用户量超 100 万,模型总下载量超 1600 万。
通义千问发布后,阿里也给开发者开放了 API。企业与个人开发者都可以登陆阿里灵骏平台获取 API 钥匙,快速访问「通义千问」,调用通义千问的大模型能力,这样可以帮助应用开发者以更低的成本、更少的训练数据实现 AI 场景应用创新。
阿里的态度很明确:
在 AI 大模型时代,他们要做对基础设施要求更高的通用大模型,如通义大模型,并基于通用大模型做通用类的大模型产品形态,如「通义千问」。做好自己的「本分」后,阿里率先升级自家产品,一是彰显通义大模型技术和产品的落地可行性,二是带领 AI 大模型生态的繁荣。
同时,外部企业可以基于通义大模型训练各自行业的「垂类大模型」。行业垂类大模型同样存在壁垒,如「高质量的行业数据、足够深入的行业 Know-How、先发布局的试点验证」,企业结合自身业务特点在通用大模型的基础上精调行业模型,开发出可以产生实际价值的应用,才是大模型走向行业,AI 生态最终形成的序曲。
03 仰望星空
先有「云原生」,尔后有「智能原生」。
无论是技术,产品还是生态,中国的大模型仍处于起步阶段。技术上,与 GPT-4 相比,国内的大模型研发仍存在一定差距。但依赖用户、数据与场景的优势,大模型的生态正在迅速发展。无论是 3 月百度文心一言的领跑,还是四月大模型技术的集中发布,中国的技术创新者都感受到了犹如十年前移动互联网刚起来的火热。雷峰网
我们迎接人工智能时代的第一步,是对大模型产品的好奇心;第二步,则是对大模型产品的应用,也是在这一步,AI 的「生态」开始形成——大模型成为生产力,改变生产关系,必然要走向实际、影响具体行业。雷峰网
缔造一个新的时代——这是一个庞大的事业。因此,在大模型「生态」的缔造上,每个人都能找到自己的位置。借助「通义千问+」、云基础设施与模型开源的理念,阿里首先撕开了「生态」的口子,在智能商业平台的颠覆上做了表率启示,也在技术底座上传达了「服务者」的心态。
有人说这是 ChatGPT 加剧了 SaaS 的寒冬,但也有人说,「通用大模型+垂类大模型」的打法恰恰是利好行业服务者。大模型的「功能集成」与「一键解答」思想,恰恰是实现降本增效的手段启示。
阿里的大模型在短时间内历经技术、产品与生态三个阶段,也间接传达了市场焦灼的状态:大模型初步进入工程化阶段,基础设施、产品创新、工程落地的齐发力,哪怕错过一个环节(如算力的缺失),晚一个月,也可能被时代的巨浪远远甩在后面。阿里率先撬开生态的口子,是实力的自信,也是行业发展需求使然。
对于不具备大模型研发能力、算力基础设施的新一代 AI 淘金者,他们所面临的内外「逼迫」也不亚于互联网大厂。每一个不想被时代淘汰的人,在大模型主导的产品革新浪潮中,每一步都变得至关重要。选择对的合作伙伴,也变得重要。
AI 的新时代,举杯欢庆的同时,愿我们跨过险滩,到达新的彼岸。雷峰网
91che 2024-11-10
任炜老师 2024-11-10