当前位置:首页|资讯|AI大模型|ChatGPT|Claude|Sora

找到GPU平替了?RISC-V专用芯片或最适合AI

作者:IT时报发布时间:2024-07-17

针对特定AI应用的专用芯片将成主流

作者/ IT时报记者 林斐

编辑/郝俊慧孙妍

国产芯片要如何“另辟蹊径”?作为一个全新的开源指令集架构,RISC-V被认为是x86、ARM之外的第三条“路径”,备受全球芯片开发者的青睐。截至去年,全球RISC-V处理器出货量已超100亿颗。

“RISC-V 是最适合AI的架构。”7月6日举行的世界人工智能大会(WAIC 2024)的RISC-V 和生成式 AI 论坛上,RISC-V 国际基金会理事长戴路表示:“RISC-V全部开放,没有任何限制,不会被某家公司、某个国家垄断。

本次论坛以 “智” 由“芯”生为主题,由上海开放处理器产业创新中心、芯原微电子(上海)股份有限公司主办,中国 RISC-V 产业联盟协办。

始于CPU 适于AIGC

RISC-V系出名门。1971年,RISC架构最由图灵奖得主、谷歌TPU团队负责人David Patterson发明,随后经历了RISC-I到RISC-IV四代,并没有受到太多关注。RISC-V起初也不起眼,但随着近几年各种技术壁垒越来越高,完全开源的RISC架构成为x86、ARM之外的首选,尤其是在中国芯片开发者中,热度逐渐涨高。2019年7月,阿里巴巴旗下半导体公司平头哥发布的玄铁910,便是RISC-V架构。

不过,近两年,从业者突然发现,虽然RISC-V始于CPU,却可能无心插柳,更适合AIGC。

GPU 并不一定是 Transformer 的最优算力芯片,有越来越多的专用芯片正在浮出水面,挑战英伟达最先进的产品,显示出技术生态的多样化。”论坛上中国RISC-V产业联盟理事长、芯原微电子创始人戴伟民认为,未来的AI时代,随着基础大模型市场格局逐步清晰,针对具体应用场景的AI微调将更加普遍,针对特定AI应用的专用芯片将成为主流。

戴伟民认为,生成式AI需要“三张卡”来协同工作:云端训练卡(树干)、垂域大模型的微调卡(树枝)和应用推理卡(树叶),“单有树干没有树枝是长不出树叶的。垂直领域的微调卡和推理卡的数量规模,远多于云端卡,而这正是RISC-V的用武之地。”

戴伟民的观点在市场中已得到印证。本次论坛上,多位嘉宾都提到今年6月份美国芯片创业公司Etched推出AI芯片Sohu,它运行大模型的速度比英伟达 H100 要快20倍,比今年3月推出的顶配Blackwell芯片B200也要快10倍。

目前多款主流明星AI大模型,如ChatGPT、Claude、Gemini和Sora都基于Transformer架构,而Sohu是专用于Transformer计算的芯片,作为一块 ASIC(专用集成电路),Sohu 将Transformer 架构优化硬化在芯片中,使其无法运行其他的AI大模型。这也是运行速度比英伟达GPU快的主要原因。

在论坛上远程发言的练维汉来自另外一家加拿大AI芯片公司Tenstorrent。Tenstorrent 成立于 2016 年,以 AI 加速器起家,近两年也瞄准了RISC-V架构的处理器。目前Tenstorrent 共设计出 3 款芯片,其中Jawbridge是一款小型测试芯片,Grayskull和Wormhole 则是对外商用芯片,可覆盖训练和推理场景。

据担任Tenstorrent公司首席 CPU 架构师一职的练维汉介绍,“Tenstorrent拥有为神经网络推理和训练量身定制的专有 Tensix 内核,每个 Tensix内核包含5个RISC-V 内核、1个用于张量运算的数组数学单元、1个用于矢量运算的 SIMD 单元、1MB或2MB的SRAM、用于加速网络数据包运算和压缩/解压缩的固定功能硬件。”在实际应用中,5个RISC-V内核各司其职,可以推送、执行的数据量都非常大。

灵活性带来低功耗

除了开源之外,RISC-V的灵活性也是最大优点。

MIPS CTO Durgesh Srivastava指出,生成式AI芯片领域,ASIC和GPU的竞争在于哪种架构更能满足未来算力,对开发者更友好。

“RISC-V的开放性和灵活性大有可为。” 戴路指出,RISC-V在做芯片的时候可以加定制指令,对以前的软件有很好的兼容性,而且还有新的一些功能支持。

知合计算CEO孟建熠,曾经在阿里旗下芯片企业平头哥担任副总裁,推动了平头哥的玄铁RISC-V生态系统建设。

在论坛的圆桌对话中,孟建熠提出,目前芯片行业已经进入“XPU”时代,RISC-V作为开源架构,有很好的拓展性,能够在较低功耗下实现比较好的计算表现,更容易实现开源生态的“聚沙成塔”效应。

知合计算本身专注于RISC-V的高性能计算。他说自己公司的目标是通过RISC-V架构的创新,将高性能、高能效算力、AI算力等普及。

事实上,随着近年来,英伟达在AI芯片领域的一骑绝尘,功耗问题也越来越被产业链所关注。

以英伟达最新的GB200加速卡为例,采用两个B200 GPU和一个独立的Grace CPU。按照英伟达官方说法,相比H100,可以将成本和能源消耗降至1/25。训练一次2万亿参数和8万亿Tokens的GPT-4,使用Pascal大概需要一年;使用Hopper,可能需要三个月;换成Blackwell,10000颗芯片训练同样大小的模型,只需要3吉瓦时,耗时10天。

据《纽约客》报道,ChatGPT每日耗电量或超过 50 万千瓦时,相当于美国家庭平均用电量的 1.7 万倍,以响应用户约 2 亿个请求。

现在芯片执行的过程中,有时候会出现“等数据来”的情况,很多功耗被白白浪费,所以芯片不能做得太大,也不需要做那么大。“RISC-V在这方面有优势,可以用非常有弹性的方法,根据不同的需求来做不同的设计。” 练维汉指出。

全国近五成RISC-V人才出自上海

经过近十年的创新发展,上海已经成为RISC-V企业、产业和人才最集聚的地区,也是国际RISC-V创新发展的前沿阵地。

论坛上,上海市经济和信息化委员会副主任汤文侃透露,上海已有超过100家企业推出基于RISC-V指令的芯片产品,一批企业推出RISC-V完整的开发工具,为RISC-V提供了丰富的芯片载体,构建了RISC-V的产业生态,“上海已经形成了RISC-V完整的产业链和良好的生态环境”。

在人才培养方面,交大、复旦、上科大、上大等一批上海本地高校均开设了RISC-V相关教学课程,每年培养和集聚的RISC-V人才占全国比例近50%,为RISC-V的持续发展提供坚实的人才基础。

目前,上海将继续打造全球领先的RISC-V产业高地,并做好三项工作:一是推动成立RISC-V产业创新中心,面向重点的应用领域联合行业力量,构建统一的硬件开发平台,加快形成RISC-V全栈解决方案;二是做强RISC-V产业联盟,加快RISC-V专利池的建设,推动产业健康持续发展;三是加强前沿技术的研究和人才培养,积极参与新指令的扩展、新技术的探索,并推动将RISC-V相关的教材纳入上海集成电路紧缺人才的培训计划。

排版/ 季嘉颖

图片/ WAIC

来源/《IT时报》公众号vittimes

E N D


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1