当前位置:首页|资讯|亚马逊|融资|机器学习|大语言模型

亚马逊CEO解析:为何自研芯片?考量四个指标!

作者:启芯硬件发布时间:2024-04-03

亚马逊(首席执行官安迪·贾西 (Andy Jassy) 在他的第二份年度致股东信中为投资者提供了大量有价值的花絮。其中之一是关于热门的半导体行业,这是所有计算技术的基石。实际上,亚马逊多年来一直在投资自己的内部半导体设计,并且越来越关注高性能机器学习处理器,这些处理器为 ChatGPT 等大型语言模型 (LLM) 服务提供动力。

Nvidia 的股票最近一直在蓬勃发展,这是基于对其LLM 长期收入增长前景的乐观情绪,因为其图形处理单元 (GPU) 在该部门处于领先地位。但亚马逊的芯片投资是否会给 Nvidia 带来麻烦?

图片

Amazon Web Services (AWS) 是快速发展的云行业的先驱。今天,AWS 为亚马逊帝国买单,并帮助资助大量其他业务投资。但是亚马逊是如何决定投资半导体设计这样的新企业的呢?正如 Jassy 2022 年年度股东信中解释的那样,有四个主要指标:

如果我们成功了,它能做大并获得合理的投资回报吗?

今天机会是否得到妥善利用?

我们有差异化的方法吗?

而且,我们在那个领域有能力吗?如果没有,我们能否快速获得它?

If we were successful, could it be big andhave a reasonable return on invested capital?

Is the opportunity being well-served today?

Do we have a differentiated approach?

And, do we have competence in that area?And if not, can we acquire it quickly?

显然,当 AWS 考虑设计数据中心芯片(为云提供动力的计算硬件)时,这四个问题的答案都是“是”。为了启动其芯片梦,它于 2015 年以 3.5 亿美元的价格悄悄收购了以色列芯片设计初创公司 Annapurna Labs

Annapurna Labs AWS 设计了许多芯片,包括其Graviton 处理器——基于 ARM 的芯片替代英特尔和AMD提供的 CPU 。但是,Nvidia GPU 等计算加速器如何为 ChatGPT 等新的人工智能服务提供动力?

这就是 AWS Trainium Inferentia 芯片的用武之地。这些计算加速器在纯粹的计算能力方面都无法与 Nvidia 最新和最好的设计相媲美(AlphabetGoogle Cloud 内部芯片也是如此)。但这并不是亚马逊在开发 Trainium Inferentia 时的主要目标,成本效益是他们目标。

正如他们的名字所暗示的那样,Trainium 旨在使用大量数据来训练LLM如何表现。Inferentia 用于推理,这是在训练 AI 模型后完成大量计算工作的地方。推理是受过训练的 AI 程序如何根据它已经学到的知识做出决定(比如当你向 ChatGPT 提问时,它会给出答案)。

AWS 自己使用 Trainium Inferentia,但也向客户提供更具成本效益的加速器。Jassy 在致股东的信中表示,与类似的 GPU 系统相比,使用 Trainium 训练的普通人工智能模型“速度提高了 140%”,“成本降低了 70%”。至于人工智能推理,Jassy 表示,自 2019 年推出以来,其 Inferentia 芯片已经“为亚马逊等公司节省了超过一亿美元的资本支出”。

简而言之,亚马逊在 2015 年对 Annapurna 3.5 亿美元投资看起来将为 AWS 和股东带来令人难以置信的长期回报。

竞争是一件好事,因为它让商业领袖不断推动他们的公司不断改进。Nvidia 将从其面向高级 AI 的最尖端 GPU 中大赚一笔,但它还有许多其他芯片也可以不断改进。例如,在 3 月,它推出了面向 AI 推理的新 L4 GPU,并配有软件堆栈,以帮助优化各种 AI 工作负载并降低云提供商和客户的总拥有成本。 

事实上,虽然亚马逊 AWS 和其他云提供商通过宣布他们自己的芯片设计来搅局,但 AWS 仍然是 Nvidia 的主要客户。AWS 的内部芯片目前在这家云巨头的运营中占据了一小部分。 

当然,来自同行科技巨头的日益激烈的竞争对 Nvidia 来说是一个很大的风险。但它远非毫无防备。此外,云计算和人工智能仍处于采用曲线的早期阶段。正如 Jassy 在他的股东信的结尾所指出的那样,尽管 2022 AWS 的收入为 800 亿美元,但“全球 IT 支出的大约 90%”仍然是在尚未迁移到云端的本地系统中产生的。

换句话说,尽管亚马逊 AWS 在内部设计芯片方面取得了快速进展,但仍有大量新业务可以开展。英伟达会没事的。

亚马逊致股东信中关于芯片的描述摘译:

芯片开发就是一个很好的例子。在去年的信中,我提到了我们对名为 Graviton 的通用 CPU 处理器的投资。基于 Graviton2 的计算实例的性价比比最新一代基于 x86 的实例高出 40%2022 年,我们交付了 Graviton3 芯片,性能比 Graviton2 处理器高 25%

此外,随着机器学习的采用持续加速,客户渴望成本更低的 GPU(最常用于机器学习的芯片)。AWS 几年前开始投资这些专门用于机器学习训练和推理的芯片(推理是机器学习模型提供的预测或答案)。我们在 2022 年交付了第一款训练芯片(“Trainium”);对于最常见的机器学习模型,基于 Trainium 的实例比基于 GPU 的实例快 140%,而成本最多降低 70%

大多数公司仍处于训练阶段,但是当他们开发模型并逐步进入大规模生产阶段时,他们会发现大部分成本都在推理上,因为模型是定期训练的,而推理作为其相关应用程序一直在发生我们在 2019 年推出了我们的第一款推理芯片(“Inferentia”),它们已经为亚马逊等公司节省了超过一亿美元的资本支出。

我们刚刚推出的 Inferentia2 芯片的吞吐量比我们的第一款 Inferentia 处理器高四倍,延迟低十倍。随着机器学习即将到来的巨大增长,客户将能够以更低的成本使用 AWS 的训练和推理芯片完成更多工作。

我们在这方面的创新还没有结束,这项长期投资应该会为客户和 AWS 带来丰硕的成果。AWS 仍处于发展的早期阶段,并有机会在未来十年实现非同寻常的增长。




Copyright © 2025 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1