当前位置:首页|资讯|ChatGPT|人工智能|AI芯片|OpenAI|深度学习

最近火爆出圈的ChatGPT竟带飞英伟达?

作者:奇普乐芯片技术发布时间:2023-03-14

原标题:最近火爆出圈的ChatGPT竟带飞英伟达?

ChatGPT是一个人工智能对话机器人,据瑞银报告显示:今年1月ChatGPT月活已经破亿,成为史上用户增长速度最快的消费级应用程序。

相比之下,揽下1亿用户门槛TikTok用了9个月,Instagram用了30个月,WhatsApp和Meta分别用了42个月和54个月,而Twitter更用时达60个月。

甚至比尔·盖茨都高度评价,称ChatGPT这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的诞生。

时至今日,随着ChatGPT关注度持续上涨,各种商业化快速落地;基于人工智能四层架构中的底层需求也将暴露在市场面前:

关于2020-2027年AI芯片北美市场预期;图片来自:Mordorintelligence

众所周知,几乎所有的人工智能都可分成以下四种架构:

1)底层芯片:其中以AI芯片也被称为AI加速器或计算卡为主,即专门用于处理人工智能应用中的大量计算任务的模块;深度学习模型与推荐式系统模型复杂度进一步提升,对芯片算力提出了更高的要求。

2)深度学习框架:深度学习框架是一种界面、库或工具,它使我们在无需深入了解底层算法的细节的情况下,能够更容易、更快速地构建深度学习模型。

3)模型:模型就是参数+架构;即是:模型是在指定的假设空间中,确定学习策略,通过优化算法去学习到的由输入到输出的映射。

4)上层应用:从无人驾驶到远程医疗,从siri语音到本次的ChatGPT都在范围中。

随着上层应用端热度的持续暴涨,与其相关模型及深度学习框架的不断完善;以ChatGPT所带来的一场针对其底层需求(AI芯片)的竞赛已悄然打响:

或许,这几天我们都在担心一件事:那就是大热的ChatGPT会不会被“噎死”。

最近的ChatGPT总是处于奔溃边缘

这几天全网都在刷屏的ChatGPT果然有点绷不住了,服务器直接被挤爆,两天宕机五次;可以想象,在全世界几十亿用户的访问量下,作为其底层需求的AI芯片也很“受伤”。

众所周知,目前大火的OpenAI产品是基于GPT-3.5模型的大幅改善版本,其在微软Azure AI云服务器上完成训练;截至目前,ChatGPT总算力消耗已经远远大于初期时的3640PF-days,这也导致其部署导入的超1万颗英伟达高端GPU已都在过热运行中......

作为本次直面ChatGPT的底层需求的主要供应商——Nvidia(英伟达)或已在这场“科技狂欢”中受益。

英伟达美股走势;图片来自:百度股市

随着 ChatGPT 的兴起,华尔街交易员越来越多地押注Nvidia(英伟达)这样的芯片制造商,该公司本月股价上涨了 34% 以上。

Susquehanna投资集团高级分析师Christopher Rolland称:“ChatGPT开启了一场(算力)军备竞赛,英伟达在这方面遥遥领先。”

更有花旗集团分析师Atif Malik在上周估计:ChatGPT可能会在未来12个月内为英伟达(http://NVDA.US)$带来30亿美元至110亿美元的销售额。

当然,不光是Nvidia(英伟达):以ChatGPT为首的AIGC产品的火爆,也为其他更多的AI芯片开发商袒露出了新的市场缺口:

正如ChatGPT被问及是否会使用英伟达以外的供应商的GPU时所答:

“AMD、英特尔和谷歌等其他供应商最近发布了新的硬件和软件来支持深度学习,未来,ChatGPT或其他深度学习模型可能在这些平台上进行训练和运行。”

与此同时,据纽约时报报道:英伟达、苹果、AMD正抢夺台积电的AI芯片订单,上述公司近期同步对台积电增发急单,以求达成其相关芯片在4月后逐步产出。

以AI芯片的代表——GPU而言:尽管其全球市场或将一直保持着较高增速,但真正的玩家只有英特尔、英伟达、AMD等少数海外巨头,国产化比例仍有待上升:

根据华经产业研究院发布的《2021-2026年中国GPU行业发展监测及投资战略规划研究报告》显示:

图片来自:华经产业研究院

2020年全球GPU行业市场规模达254.1亿美元,预计2027年将达到1853.1亿美元,复合年均增长率32.82%,GPU市场保持高速增长态势。

在以AI经济为核心的“印钞机”下,针对其底层需求的“芯竞赛”早已拉开序幕:

在后摩尔时代,随着GPU的可编程性不断增强,GPU的应用能力已经远远超出了图形渲染,部份GPU被用于图形渲染以外领域的计算成为GPGPU:

GPGPU的架构描述;图片来自Researchgate

由于,CPU为了追求通用性,只有少部分晶体管被用于完成运算,而大部分晶体管被用于构建控制电路和高速缓存;但是由于GPU对CPU的依附性以及GPU相较CPU更高的开发难度,所以GPU不可能完全取代CPU。

所以,以GPU+CPU为首的异构运算体系GPGPU由此而生:

在GPU+CPU的异构运算中,GPU和CPU之间可以无缝地共享数据,而无需内存拷贝和缓存刷新,因为任务以极低的开销被调度到合适的处理器上。

CPU凭借多个专为串行处理而优化的核心运行程序的串行部份,而GPU使用数以千计的小核心运行程序的并行部分,充分发挥协同效应和比较优势。

在相关理论的支持下,一个针对GPU的制造升级趋势也逐渐明朗起来——Chiplet化:

如,Chiplet技术在HBM(高位宽内存)中的常见应用:

针对GPU的制造升级趋势——Chiplet化;图片来自:AMD

HBM是一种高速计算机存储器3D堆栈SDRAM接口。(首款HBM于2013年推出,第二代HBM2已于2016年被JEDEC接受;目前,HBM主要应用在高端独立显卡和服务器显卡。)

HBM通过3D堆叠4个DRAM Die和1片逻辑Die使用Chiplet技术合为一体后,其中每片DRAM具有2个128位通道,通过TSV(硅通孔)相连;总位宽1024比特,每片DRAM又与GPU封装在同一Interposer(中介层)使用Chiplet技术形成新的GPU芯片;

相比之下,GDDR5内存的总线宽度为32位,带有512位内存接口的显卡也只有16个通道,而且采用传统的FBGA封装;HBM与GDDR5相比,每GB的表面积减少94%,每GB/S带宽的能效提升2倍多。

由于篇幅受限,本次的ChatGPT就先介绍这么多......

也由于ChatGPT服务器宕机的原因,本次文章皆为人工手打~

想了解更多半导体行业动态,请您持续关注我们。

奇普乐将在每周,不定时更新~

最后的最后,借用佚名作者的一句话:

云中看山,必有山在;雾中看花,必有花在......

愿每一位半导体从业者可以——

品浮乱,定乾坤!


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1