当前位置:首页|资讯|英伟达|OpenAI|微软|Copilot|ChatGPT

公开“叫板”英伟达?Bing Chat更名Copilot,自研芯片问世!

作者:EDA365电子论坛发布时间:2024-01-09

原标题:公开“叫板”英伟达?Bing Chat更名Copilot,自研芯片问世!

11月14日凌晨,英伟达在2023年全球超算大会上正式宣布,发布新一代顶级AI芯片H200。与H100相比,H200的性能提升了约60%到90%。

尽管H200性能大幅提升并被各大巨头纷纷预订,但业界还广泛关注一个问题:中国是否能够顺利得到这些新芯片,或者说它们是否会像H100一样受到出口供应限制?

11月16日凌晨,微软召开最新一场Ignite大会,CEO 萨提亚・纳德拉在大会上介绍了100 多项产品和技术的发布与更新,包括应用、生产力以及安全性等多个方面。

本次发布会,微软带来了三大王炸—5nm定制AI芯片、Arm服务器CPU和对标ChatGPT的新品牌Copilot。

图:微软Maia 100和Cobalt 100

发布会上,英伟达创始人兼CEO黄仁勋专程来到现场,宣布推出一项AI代工服务,帮助部署在微软Azure上的企业和初创公司。之后微软也会将 AMD 、英伟达最新的处理器纳入Azure云服务。

纳德拉与黄仁勋握手

当微软CEO纳德拉提问未来AI创新的发展方向是什么,黄仁勋回答说:“生成式AI是计算史上最重要的平台转型。在过去40年里,从来没有发生过如此大的事情。到目前为止,它比个人电脑更大、比手机更大,而且将比互联网更大。”

全线改名Copilot,自定义GPT来了

据了解,Copilot是微软在今年9月份发布的一款人工智能助手。微软首先以初期版本的形式将Copilot作为Windows 11的一部分推出,将这款人工智能聊天机器人带到了电脑上。

11月16日,微软Copilot全面迎来了新时代。无论是在微软Edge、谷歌Chrome、苹果Safari,亦或是移动端,均可使用Copilot。

目前,Copilot免费版可直接在必应和Windows中访问,并且提供一个专门的入口https://copilot.microsoft.com/)。

但对于其它Microsoft 365等产品,Copilot仍需付费。其中企业必须至少达到300个用户,才能进入AI驱动的Office助手的名单,每位用户每月收费30美元。

值得一提的是,微软还发布了低代码工具—Microsoft Copilot Studio。

Copilot Studio支持在同一网页中构建、部署、分析和管理所有内容,可让用户创建自定义Copilot,或集成定制版的GPT、生成式AI插件和主题等,包括GPTs的功能。

如企业IT团队可通过Copilot Studio中自然语言或图形界面,链接至SAP、Workday、ServiceNow等合作伙伴的数据源,同时还能够创建和发布自定义Copilot。

Copilot Studio演示

此外,微软还发布了更多新的Copilot应用,使聊天机器人更具交互性和参与性:

Copilot in Teams,支持在会议中实时记笔记、捕获特定内容、智能问答等;

Copilot in Microsoft Dynamics 365 Guides,可为一线工作人员提供交互式指导,更快地完成复杂任务和解决问题;

Copilot in Microsoft Fabric,可与Microsoft Office和Teams集成,在企业级数据基础上统一所有数据资产,重塑团队处理数据的方式。

首款5nm AI芯片,OpenAI开启测试

微软自研的两款芯片,均由微软内部构建,并面向整个云服务器堆栈进行深度改造以优化性能、功耗和成本,预计将于2024年推出。

首先,Maia 100是微软为微软云中大语言模型训练和推理而设计的第一款人工智能(AI)芯片。负责Azure芯片部门的副总裁Rani Borkar声称,已在Bing和Office人工智能产品上进行测试,ChatGPT开发商OpenAI也正在率先将该芯片用于GPT-3.5 Turbo上测试。

具体规格,Maia 100 采用台积电 5nm 制程工艺,拥有 1050 亿个晶体管,比 AMD MI300 AI GPU 芯片的 1530 亿晶体管少了约 30%。

首次支持实现 8-bit 以下的数据类型(MX 数据类型),以便共同设计软硬件,有助于支持更快的模型训练和推理时间。

内存带宽,微软Maia 100的规格是 1.6TB/s 的内存带宽。碾压亚马逊Trainium/Inferentia2,但却逊于TPUv5,更不用说 H100 和 MI300X 。

散热方式,微软打造的第一个完整的液冷服务器处理器,一直运行 GPT 3.5,目前属于 GitHub 的 AI 副驾驶提供支持。微软正在使用 Maia 100 加速器构建机架,明年将被允许通过 Azure 云为外部工作负载提供支持。

微软表示,Maia将作为Azure云计算服务的一部分,率先支持微软自己的AI应用,然后向合作伙伴和客户开放,但并不打算单独出售芯片。

Cobalt 100,首款用于通用云计算的定制基于Arm ( ARM ) Azure Cobalt中央处理器。基于ARM指令集架构,采用Arm Neoverse CSS设计、128核。

据悉,Cobalt 100相比前一代基于Arm的Azure芯片,可带来40%功耗下降。目前,它已开始为Microsoft Teams等应用提供支持。不过微软没有透露完整的系统规格或基准测试。

微软介绍,这两款芯片全部由台积电生产,将在明年初在微软的几个数据中心首次公开亮相。

微软,能竞争过英伟达吗

自从10月微软宣布造芯的消息传出后,网络上便涌现出大量关于“微软挑战英伟达”的讨论。微软自研AI芯片是否会与英伟达的GPU市场形成竞争,成为了产业界关注的焦点。

此次黄仁勋亲临微软发布会,展示了两个企业在AI领域的全新战略规划。

黄仁勋表示,企业主要基于三种模式来运用AI能力:一是利用ChatGPT等公有云服务,二是通过Windows等内嵌AI应用的操作系统,三是根据自身数据和规则定制创建大模型。而第三种模式,正是AI未来发展的巨大潜力所在。

那么互联网大厂为什么这么钟爱芯片,为什么都要自研?主要有以下几个原因:

1、确保供应链的多样性和稳定性。避免依赖单一供应商,降低因供应商问题导致的风险,同时也可以避免因芯片价格波动带来的成本压力。例如,英伟达的芯片价格较高,且其产能时常受到台积电CoWoS工艺的限制,进一步加剧了价格的不稳定性。

2、优化产品性能和协同效应。互联网大厂拥有自己的AI模型和云服务平台,这些平台需要多种芯片(如CPU、GPU、DPU/SmartNIC及定制芯片)的高效协同工作。通过自主研发,可以根据自己的产品需求进行定制,实现最佳的协同效应和更高的效率。

3、业务全线布局和多元化发展。现科技巨头不再专注于单一业务,而是进行全线布局和跨界发展。对互联网大厂来说,布局芯片研发是自身业务发展的一部分,虽然难度较大,但也因此吸引了更多的关注。

微软此次通过推出Copilot和自研芯片,将能够为用户提供更加智能化和高效化的服务,同时也进一步巩固了其在AI领域的领先地位。

随着AI技术的不断发展,我们相信,未来的搜索引擎将会更加智能化和高效化,能够带来更好的使用体验。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1