当前位置:首页|资讯|人工智能|ChatGPT

三星和SK海力士正受益于HBM订单热潮

作者:集微网发布时间:2023-02-14

集微网消息,据Business Korea报道,人工智能(AI)聊天机器人ChatGPT的出现为韩国存储器半导体制造商提供了创建新业务的机会。ChatGTP通过超大型人工智能(AI)学习大量数据并自然地回答问题。DRAM数据处理速度对于更好更快的ChatGTP服务变得很重要。韩国公司正在生产为此所必需的所有高性能DRAM。

自今年年初以来,三星电子和SK海力士的高带宽存储器(HBM)订单一直在激增。与其他DRAM相比,HBM 通过垂直连接多个DRAM显着提高了数据处理速度。它们与中央处理器(CPU)和图形处理器(GPU)协同工作,可以极大地提高服务器的学习和计算性能。

迄今为止,尽管HBM具有出色的性能,但与一般DRAM相比,其应用较少。 这是因为 HBM 的平均售价(ASP)至少是DRAM的三倍。HBM需要复杂的生产过程和高度先进的技术。人工智能服务的扩展扭转了局面。

全球最大的GPU公司Nvidia一直要求SK海力士提供最新产品HBM3芯片。全球第一的服务器CPU公司英特尔也在努力销售搭载SK海力士HBM的产品。一位业内人士表示,“与最高性能的DRAM相比,HBM3的价格上涨了5倍。”

随着高性能存储半导体市场有望快速增长,三星电子和SK海力士之间的产品开发竞争正在升温。HBM市场仍处于初期阶段,因为HBM从2022年开始认真地进入AI服务器,但SK海力士和三星电子正专注于通过新产品发布来确保客户。

SK海力士在HBM市场处于领先地位。它于2013年与AMD合作开发了世界上第一个HBM。这家韩国芯片制造商已发布了第一代HBM (HBM)、第二代 HBM (HBM2)、第三代HBM(HBM2E)和第四代HBM (HBM3)并已获得60-70%的市场份额。

2021年2月,三星电子与AMD合作开发了HBM-PIM,它将内存半导体和AI处理器合二为一。当在CPU和GPU上安装HBM-PIM芯片时,可以显着提高服务器的计算速度。SK海力士还于2022年2月推出了采用PIM技术的产品解决方案。

中长期,专家预测,HBM等AI专用DRAM的开发,将给半导体行业带来巨大变革。“存储半导体公司忙于开发超微制造工艺的时代已经过去,”韩国半导体行业的一位官员表示。“高效处理数据甚至具备处理数据能力的AI半导体技术的发展将变得如此重要,它将决定芯片制造商的未来。(校对/武守哲)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1