随着数据激增、高度可伸缩算力的就位以及机器学习技术的进步,生成式AI现在已经能够改变各行各业,用户也希望了解如何快速利用这一新技术。
现在,越来越多的客户希望了解如何快速利用这一新技术。
然而,要在这个过程中取得成功,必须面对一系列复杂挑战。这些挑战包括正确选择适合的模型、安全地处理敏感的知识产权数据或公司数据,以及将数据无缝地集成到现有的应用程序中。
这需要大量的时间和高度专业化的知识和技能。
众所周知,亚马逊云科技不断“重塑”的根基是“站在用户角度看问题”。
为客户简化这一过程,让用户能够更轻松地构建和扩展基于生成式AI的应用程序。
亚马逊云科技近日在纽约峰会上宣布全面扩展其全托管基础模型服务 Amazon Bedrock。
基础模型全面上新
除了刚刚提到的SDXL 1.0,Amazon Bedrock还增加了对Cohere基础模型以及ChatGPT最强竞品——Anthropic的Claude 2的支持。
Cohere研发的大语言模型Command,是一个能够接受用户个性化命令训练的模型,专注于提供文本搜索、文本分类和文本生成三大AI能力。
另外,Anthropic推出的Claude 2,其处理能力已经更新到10万个token。相较之前版本,Claude 2在数学、代码、推理能力方面有明显的提升。
同时,开发者还可以通过机器学习中心Amazon SageMaker Jumpstart,一键开发各类热门开源模型。
比如,Meta最新的Llama 2、世界最大开源社区Hugging Face托管的Falcon、Flan等等。
Agents改变游戏规则
不过,基础模型虽然在各种任务上有强大的泛化能力,但随着应用场景的不断扩展,仅靠模型本身已经很难去完成一些复杂的任务了。
比如预定航班或退回购买的商品这种简单的任务,开发者都必须经历多个步骤——通过提供特定的说明和配置、访问相关知识源、编写代码将任务分解,然后应用才能通过一系列API调用采取行动。
在这个过程中,开发者必须配置和管理基础架构,设置数据安全和隐私策略,繁琐又耗时。
而前段时间AutoGPT的爆火,则给了学界和工业界一个全新的探索方向——集成了大语言模型的Agents。
Karpathy曾将AutoGPT称为快速工程的下一个前沿
概括来说,Agent可以通过最简单的形式运行循环,并且在每一次的迭代中,都会生成自主指令和操作。因此,它们既无需依赖人类来引导对话,还具有高度的可扩展性。
以AutoGPT为例,我们每分配一个任务,它都会给出一个相应的解决计划。
比如,需要浏览互联网或使用新数据,它便会调整其策略,直到任务完成。这就像拥有一个能处理各种任务的私人助手,如市场分析、客户服务、市场营销、财务等。
正如今年加入OpenAI的大牛、前特斯拉AI总监Karpathy所说:「Agents代表着AI的一种未来。」
亚马逊云科技也在这个领域进行了自己的探索,并且创新性地提出了全新的Amazon Bedrock Agents。
基于Amazon Bedrock提供的Agents功能,开发者可以轻松创建各种生成式AI应用,来完成复杂任务,并根据专有知识源提供最新答案。
以往得耗费几个小时编码来实现的过程,现在无需任何手动编码,只要单击几下,Agents就能自动分解任务,创建计划。
这样一来,生成式AI应用程序分分钟就搞出来了。
那么,Amazon Bedrock Agents是如何让基础模型加速工作流的呢?具体可分为以下四个步骤:
第一步:定义指令和编排,将复杂任务分解为多个步骤
第二步:检索增强生成(RAG),配置FM与公司数据互动
第三步:完成交互,执行API调用以满足用户请求
第四步:在云中安全托管
Amazon Bedrock Agents可以通过简单的API链接到公司数据,将其转换为机器可读的格式,就能生成准确响应。然后自动调用API,满足用户请求。
基于Amazon Bedrock,用户可以任意选择适合自己用例的基础模型,然后用自然语言给它下指令。
比如告诉它,「你现在是一个Agent,需要帮助处理保险索赔和管理待处理文书的工作」。
然后,对Agents发出命令「向所有有未结索赔和待处理文书工作的保单持有人发送提醒」,它马上理解了我们的请求,把任务分成多个步骤——收集未结保险索赔、查找索赔 ID、发送提醒,然后执行了相应的操作。
而且,有了Amazon Bedrock Agents的功能,用于电商的AI程序不仅可以回答简单的问题,还能完成复杂的任务,比如更新订单、管理交易。
比如,客户发出想要退回一双鞋,可以直接说:「我想把这双黑色鞋换成棕色的」。
Agents收到信息后,就会连接到公司数据,自动将文本转换成机器可读格式,向模型提供相关信息,然后调用正确的API来满足这一请求。
英伟达H100最强加持
然而,基础模型性能不断提升,所带来的是动辄几百万亿的参数。
这种复杂性的暴涨,也极大地增加了模型训练和微调的时间——最新的LLM需要数月的时间来进行训练。
与此同时,HPC领域也呈现出了类似的趋势。随着精度的提高,用户收集的数据集已经达到了Exabyte级别。
为了满足高性能和可扩展性的算力需求,亚马逊云科技全新推出了搭载英伟达最强GPU——H100的Amazon Elastic Compute Cloud(EC2)P5实例。
相较于上一代,Amazon EC2 P5 实例不仅可以将训练时间缩短高达6倍(从几天缩短到几小时),而且还能使训练成本降低高达40%。
具体来说,Amazon EC2 P5 实例共搭载了8个NVIDIA H100 Tensor Core GPU,配备640 GB高带宽GPU显存,同时还有第三代AMD EPYC处理器、2 TB系统内存、30 TB本地NVMe存储,以及高达3200 Gbps的总网络带宽。
堪称配置拉满的性能,为最苛刻、计算密集的生成式AI应用提供了支持,包括问答系统、代码生成、视频和图像生成、语音识别等,非常适合训练和运行日益复杂的LLM和CV模型。
基于全新的Amazon EC2 P5 实例,用户可以探索此前难以触及的问题,并且更快地迭代出解决方案。
此外,为了满足用户对大规模和低延迟的需求,亚马逊云科技还推出了搭载有Amazon EC2 P5实例的第二代EC2 UltraClusters。
作为云中规模最大的ML基础设施,EC2 UltraClusters可提供高达20 exaflops的总计算能力,以及跨20,000多个NVIDIA H100 GPU的低延迟。
给模型插入「外接大脑」
从Agent的构建中我们不难看到,所有基于大模型搭建好的应用,想要获取实时数据,都需要建立在检索增强生成(RAG)之上。
而这一技术是向量数据库能够在AI应用中发挥重要作用的根本。
为什么这样说?那就得看看,检索增强生成能实现什么。
比如,当你问ChatGPT「芭比」电影好看吗?
显然,ChatGPT是无法及时回复最新的相关信息。这对于企业来讲,用户咨询最新内容时,应用无法做出回应,大大降低了生产力。
有了检索增强生成,便能够补充特定领域的知识。大模型参数虽大,但无法记住许多长尾数据,还需要通过搜索召回相关领域的知识。
这里,对专业领域知识的补充就离不开,向量数据库、搜索引擎等。
另一方面,大模型的知识很容易过时,仅靠微调模型,让知识更新是行不通的。
微调模型需要耗费大量算力、时间,关键是天天微调根本不现实。
要知道,对于企业来讲,业务数据必须是实时的。因此向量数据库、搜索引擎都能够帮助模型,获得新数据,同时重训模型周期也被拉长。
由于向量数据库对「高维嵌入」有强大的检索能力,与大模型结合较为简单,因此成为RAG最常用的数据存储形式。
微软Build大会上,曾介绍了其产品如何将较少的上下文感知LLM与向量搜索结合起来,来创造更有吸引力的体验。
这其中基本的想法,也就是在LLM中,添加向量搜索,以进行检索增强生成。
而向量化,就是将数据转化为维度,如下你可以看到两种维度:大小,和类型。
其中大小有两个值(大和小),类型有2个值(树和动物)。这只是一个概念例子,还可以扩展到更多的值。
除了图片,还可以进行单词/句子向量搜索,向量搜索能够捕捉到语义表示。
假设你有数百个,甚至数万个文档数据库作为背景,是无法放在ChatGPT提示框中,但可以通过向量搜索来缩小最有可能的包含答案的上下文。
对于数据库,既可以储存文档和嵌入,也可以用来存储查询,并根据相关查询来找到最相关文档,这样就可以通过⽂档检索增强LLM。
今年英伟达GTC大会上,黄仁勋首提向量数据库,并推出了新库RAFT,用于加速索引、数据加载和近邻检索。
其重要意义在于,向量数据库是大模型的「海马体」,能够让LLM实时进行信息召回。
通过把实时资讯、市场行情等实时变化的信息置入模型中,就能使其提供更精准的结果。
Amazon OpenSearch Serverless向量引擎
同样在亚马逊云科技峰会上,首次推出了——Amazon OpenSearch Serverless向量引擎。
开发者们通过这个工具,就可以轻松使用向量数据库,快速构建基于大模型的搜索体验。
总的来说,Amazon OpenSearch Serverless向量引擎引入了简单、可扩展和高性能的向量存储和搜索功能。
开发者可以快速存储和查询各种ML模型(包括Amazon BedRock提供的模型)生成的数十亿个向量嵌入,响应时间仅为毫秒级。
当前,生成式AI大爆发,所有垂直领域的企业都在转向这一热潮,并探索通过集成高级对话生成AI应用程序,以改变用户体验,以及和数字平台交互的方法。
亚马逊云科技推出的这项工具,通过使用向量嵌入,能够增强ML搜索和生成式AI。
向量嵌入在用户私有数据上进行训练,并能表示信息的语义和上下文属性。
这样做的优势在于,能够及时处理用户的查询,以查找最接近的向量,并将其与其他元数据组合在一起,进而无需依赖外部数据源或其他应用程序代码集成结果。
值得一提的是,向量引擎是基于Amazon OpenSearch Serverless构建,因此无需担心后端基础架构的大小、调整和扩展。
所有数据都持久保存在Amazon Simple Storage Service (Amazon S3) 中。
当向量数量从原型开发时的几千个增长到生产时的上亿个甚至更多,向量引擎将无缝扩展,无需重新索引或重新加载数据来扩展基础架构。
此外,向量引擎还为索引和搜索工作负载提供独立计算,因此开发者可以实时无缝地摄取、更新和删除向量,同时确保用户体验不受查询性能的影响。
借助对Amazon OpenSearch Serverless的向量引擎支持,开发人员将拥有一个简单、可扩展和高性能的解决方案,来构建机器学习增强的搜索体验和生成性人工智能应用程序,而无需管理向量数据库基础设施。
全球生成式AI关键先生
随着数据量大爆发、可高度扩展算力的可用性、以及机器学习技术的进步,让生成式AI足以改变每个行业。
因此,越来越多的企业希望快速采用最新技术,创造价值。
选择正确的模型,使用公司数据安全定制模型,并将其集成到应用程序中是一个复杂的过程,都需要花费大量时间、和高度专业化的知识。
恰恰,亚马逊云科技Amazon Bedrock简化了这一流程,通过简单的API访问一流的基础模型。
通过Amazon Bedrock Agents这一完全托管的服务,开发者能够轻松创建基于生成式AI的应用程序,以完成各种用例的复杂任务。
其中Vector Database,能够帮助开发者的应用程序实时存储数据,及时召回信息,提供更好的用户体验。
Amazon EC2 P5 实例更是为模型训练节省大量时间和算力。
基于以上的创新,真正诠释了亚马逊云科技是端到端的生成式AI领导者,帮助企业开发者释放生成式AI的潜力,创造价值。
同时,亚马逊云科技不断降低生成式AI的门槛,更是致力于GenAI普惠的领导者。
前段时间,亚马逊云科技刚刚宣布了编程助手Amazon CodeWhisperer可用,能够使用底层基础模型帮助开发人员提高工作效率。
它可以根据开发人员使用自然语言留下的注释和IDE(集成开发环境)中的历史代码实时生成代码建议。
这次,Amazon CodeWhisperer首次与Amazon Glue Studio Notebooks实现集成,能够帮助用户优化使用体验,提高开发效率。
通过Amazon Glue Studio Notebooks,开发人员用特定语言来编写任务,然后Amazon CodeWhisperer会推荐一个或多个可以完成此任务的代码片段。
Amazon CodeWhisperer针对最常用的API进行了优化,例如Amazon Lambda或Amazon Simple Storage Service(Amazon S3),使其成为构建应用程序开发者们的绝佳编码伴侣。
除此之外,亚马逊云科技还提供了7门免费的技能培训课程,帮助开发者以使用生成式AI。
其中,还联手吴恩达推出了「用大型语言模型构建生成式AI」新课程。
医疗领域已有落地应用
今年这波AI大模型的浪潮,也激发了人们对生成式AI在医疗行业的应用的探索。
比如前几天,谷歌发布了一个「通才生物医学AI」——Med-PaLM M多模态模型。这个多模态生成模型能够利用医学的丰富数据,使用相同的模型权重集解释临床语言、医学图像和基因组学。
同样,对于AI在医疗行业的应用,亚马逊云科技也同样有所行动,发布了一款面向医疗保健软件提供商的全新服务——Amazon HealthScribe。
Amazon HealthScribe通过使用使用生成式AI的机器学习模型和语音识别,能自动起草临床文档,帮助临床医生转录和分析他们与患者的对话。
它的自然语言处理功能,还可以从对话中提取复杂的医学术语,比如药物和医学状况。病史、要点、就诊原因,一应俱全。
Amazon HealthScribe中的AI功能,正是由Amazon Bedrock提供支持的,通过预训练模型,用户就可以从初创公司以及亚马逊自身构建生成式AI了。
可以说,作为全球云计算的开创者,亚马逊云科技看到了AI浪潮当下,生成式人工智能的潜力和重要性。
面对生成式AI等前沿科技带来的新挑战和新机遇,企业需要“面向未来不断构建”,做到高瞻远瞩,积极拥抱技术革新,以具有创造性的方式想象未来的可能性,重塑企业及行业的未来。
亚马逊云科技通过提供Amazon Bedrock等服务不断刷新,以及丰富的专业技术支持资源,包括SA、产品专家、人工智能实验室、数据实验室、快速原型团队、专业服务团队,帮客户打通应用生成式AI的最后三公里的工程化挑战。
亚马逊云科技还带动强大的合作伙伴网络和初创企业体系来一起为生成式AI添砖加瓦,提供更多的工具、解决方案和服务。业务、甚至每一个行业。
Amazon Bedrock和Cohere的结合为客户提供了智能化的系统,使开发人员和企业可以更快更轻松地利用AI进行创新。
释放生成式AI潜力,Amazon Bedrock给大模型装上最强“外接大脑”。