当前位置:首页|资讯|亚马逊|生成式AI

亚马逊云科技CEO:用全栈技术加速推动Generative AI普及

作者:DoBigdata发布时间:2024-03-03

原标题:亚马逊云科技CEO:用全栈技术加速推动Generative AI普及

今年,Generative AI(生成式AI)席卷全球,各种热点层出不穷,让全球感受到生成式AI的热度。

临近年底,一年一度的云计算盛会--亚马逊云科技 re:Invent大会上,从各种产品的发布,到重磅级的合作,再到激烈的讨论,生成式AI理所当然的成为主角。只不过,亚马逊云科技对于生成式AI的视角更加令人值得期待。

在现场,亚马逊云科技CEO Adam Selipsky面向五万现场观众全面展示了亚马逊云科技生成式AI三层技术栈:底层基础设施层、中间AI大模型服务以及上层应用,旨在帮助用户提供加速模型训练和推理的先进基础设施、用于构建大型语言模型的完善工具以及提供利用人工智能的丰富应用,不断降低生成式AI的门槛,从而真正推动生成式AI在企业中的落地。

让模型训练与推理更加高效

生成式AI的兴起,伴随的是动辄几千上万GPU芯片组成的集群、处理庞大规模的数据量以及高效的数据传输网络等,让人们意识到基础设施的重要性。

毫无疑问,云是生成式AI首选的基础设施理想之地。从今年 re:Invent大会来看,亚马逊云科技正在构建最为先进且可以充分给予用户选择权的基础设施。

在大会上,亚马逊云科技CEO Adam Selipsky表示,生成式AI正在重塑基础设施,并与英伟达创始人黄仁勋共同讨论了生成式AI的发展趋势,同时宣布亚马逊云科技是全球第一家在云端配备具有多节点NVLink技术的NVIDIA GH200 Grace Hopper Superchips的云服务商。

另外,英伟达DGX Cloud也将登陆亚马逊云科技。黄仁勋介绍道,DGX Cloud是Nvidia的人工智能工厂。此前,DGX Cloud已经与微软Azure、谷歌OCP、Oracle等云厂商达成DGX Cloud的托管云服务合作。对于与亚马逊云科技的DGX Cloud合作,黄仁勋表示非常期待。

据悉,DGX Cloud将部署在亚马逊云科技的UltraCluster集群中,利用,Nitro System先进虚拟化与安全平台、Elastic Fabric Adapter(EFA)互连技术和UltraCluster(超大规模集群)扩展能力,为训练基础模型和构建生成式AI应用提供先进的大模型训练与推理服务。

除了与英伟达合作之外,亚马逊云科技还宣布了推出第二代推理芯片Trainium2,专为以高性能训练具有数万亿个参数或变量的基础模型和大语言模型而构建。相比于上一代芯片,Trainium2训练速度提升多达4倍、内存提升3倍、能效比提升2倍,并能在EC2 UltraClusters中部署多达100000个芯片,可以在极短的时间训练基础模型(FMs)和大语言模型(LLMs),同时能效提升多达2倍。

据悉,Databricks、Helixon、Money Forward以及 Amazon Search团队等众多客户都在使用Trainium训练大规模深度学习模型,随着Trainium2芯片,以更低成本和更佳能效来更快地训练机器学习模型成为可能。Trainium2在新一代EC2 UltraClusters中可扩展多达100,000个Trainium2加速芯片,并与Amazon Elastic Fabric Adapter(EFA)PB级网络互联,提供的算力高达65 exaflops,客户可按需获得超级计算级别的性能。

此外,亚马逊云科技还发布了Graviton4自研通用芯片,性能提升高达30%,独立核心增加50%以上,内存带宽提升75%以上,为在Amazon EC2上运行的工作负载提供更优的性能和能效。

从本次大会的发布来看,亚马逊云科技的确是站在用户视角去考虑基础设施在生成式AI时代的发展。首先,尊重用户的选择性,构建起多种基础设施服务,以满足用户对于基础设施的不同需求;其次,充分利用在基础设施集群、网络、虚拟化等方面的深厚积累,以云服务的方式来降低生成式AI的复杂性,来保证大模型的高效输出。

让生成式AI应用构建更容易

如果说强大的基础设施在帮助用户们完成模型的训练、推理等基础工作,那么生成式AI应用的构建则离不开强大的工具。对于绝大部分企业而言,面对市场中如此多的模型如何选,如何利用快速、高效的工具来基于大模型开发应用,这是当前普遍遇到的需求痛点。

亚马逊云科技CEO Adam Selipsky在大会上也强调,生成式AI还处于早期发展阶段,存在着非常多的变化,不存在一个模型就适应所有场景,而是不同模型通常会在不同的适用场景中表现更好,模型对于场景的适应能力很重要。

因此,亚马逊云科技在今年带来了Amazon Bedrock服务。在本次大会上,Amazon Bedrock进行了更新:模型的微调(Fine-tuning)、检索增强生成(RAG)以及基于Amazon Titan大模型的持续预训练,为用户带来持续更多的模型选择,包括新推出的Anthropic Claude 2.1和Meta Llama 2 70B以及最近推出的Stability AI Stable Diffusion XL 1.0、Meta Llama 2 Chat 13B、Cohere Command Light、Cohere Embed English和Cohere Embed等语言模型。

这其中,亚马逊云科技是首个集成 Meta Llama 2 模型的云厂商。另外,与Anthropic的合作也值得关注。作为对比OpenAI的公司,Anthropic今年在市场收获多笔融资,亚马逊投资40亿美元给Anthropic,双方合作明显提速,Anthropic利用亚马逊云科技的专用机器学习芯片Trainium来训练他们的下一代复杂Claude模型,Amazon Bedrock的客户将享有独家早期使用权,体验其他地方都无法使用的先进Claude定制和微调模型功能。

据悉,Amazon Bedrock服务自推出以来,已经拥有超过一万名顾客在使用,包括阿迪达斯、纳斯达克等企业。亚马逊云科技大中华区战略生态部总经理顾凡直言,Amazon Bedrock更新的诸多功能都是源自于客户需求的迭代,核心能够帮助用户三点:一、增加模型评估,告诉客户哪个模型适合自身业务;二、保障大模型的高效输出;三、降低模型幻觉带来的影响。

从中间层Amazon Bedrock今年迅猛的发展态势来看,亚马逊云科技的确是切中了当前市场用户们的需求痛点,Amazon Bedrock对于大模型应用构建门槛的大幅降低,有利于生成式AI应用的快速落地。

Amazon Q:不可小觑的生成式AI助手

对于企业而言,生成式AI并不是写诗作画,而且渴望通过生成式AI来实现效率提升和成本降低。

今年以来,OpenAI ChatGPT、谷歌Bard智能聊天机器人等,生成式AI助手的赛道竞争十分激烈。不过,亚马逊云科技聚焦依然是企业级领域。如何服务好亚马逊云科技平台上数以百万计的企业用户群体,是亚马逊云科技切入生成式AI助手赛道的核心目标。

为此,亚马逊云科技推出了Amazon Q。Amazon Q由亚马逊云科技17年来积累的知识和经验训练而成,它能帮助用户快速上手亚马逊云科技的新服务、功能,轻松学习不熟悉的技术、构建解决方案、发现问题、升级应用程序等,真正改变了开发者和IT人员在亚马逊云科技上构建、部署和运维应用程序和工作负载的方式。

例如,亚马逊云科技CEO Adam Selipsky在大会上介绍了,亚马逊云科技内部团队使用Amazon Q将上千款应用程序从Java8升级到了Java17,甚至还完成了对应的测试,大幅提升了工作效率。

亚马逊云科技大中华区战略发展部总经理顾凡直言,亚马逊云科技平台上的智能助手一定不能是一个通用型的助手,而且需要围绕企业业务场景来回答问题,AmazonQ就是一个最懂亚马逊云科技的智能助手,满足在亚马逊云科技平台上各类人群的使用需求。

以BI可视化分析为例,Amazon QuickSight内置Amazon Q之后,业务分析师只需简单告知Amazon Q即可创建仪表板和报告。此外,亚马逊呼叫中心服务Amazon Connect也接入Amazon Q,现在Amazon Connect通过机器学习、转录和分析使这变得更加容易,可以直接充当使用者的客服代表,,解决下游用户提出的问题。

总体来看,亚马逊云科技在本次re:Invent大会上围绕生成式AI进行了组合拳式的发布,涵盖了从底层基础设施到中间工具层,再到上层应用,覆盖面和深度前所未有。自从生成式AI火爆以来,产业界都在关注生成式AI如何从消费端进入到企业级领域,帮助广大企业用户充分利用人工智能技术。毫无疑问,亚马逊云科技为生成式AI的普及做出了极好的示范。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1