随着生成式人工智能(AI)市场的爆发,也带动了AI芯片需求的暴涨。AI芯片龙头英伟达业绩更是持续飙升,最新公布的第四财季财报显示,营收同比暴涨265%至221亿美元,净利润同比暴涨769%至122.85亿美元,持续突破历史记录,推动英伟达市值突破2万亿美元。
随着AI芯片需求持续大涨,作为目前AI芯片当中的极为关键的器件,HBM(高带宽内存)也是持续供不应求。继此前美光宣布今年HBM产能全部售罄之后,最新的消息显示,SK海力士今年的HBM产能也已经全部售罄。
SK海力士、美光今年HBM已全部售罄
虽然整个2023年全球半导体市场遭遇了“寒流”,特别是存储芯片市场更是下滑严重。但是,受益于生成式AI带来的需求,面向AI应用的DRAM依然保持了快速的增长。
SK海力士在2023年度财报当中就曾表示,2023年在DRAM方面,公司以引领市场的技术实力积极应对了客户需求,公司主力产品DDR5 DRAM和HBM3的营收较2022年分别成长4倍和5倍以上。
近日,SK海力士副总裁Kim Ki-tae(金基泰)在一篇博文中表示,虽然2024年才刚开始,但今年SK海力士旗下的HBM已经全部售罄。同时,公司为了保持市场领先地位,已开始为2025年预作准备。
金基泰解释称,虽然外部的不稳定因素仍在,但今年內存市场有望逐渐加温。其中原因包括,全球大型科技客户的产品需求恢复。此外,PC、智能手机等设备对于的AI应用,不仅会提升HBM3E销量,DDR5、LPDDR5T等产品需求也有望增加。https://www.jzfbj.com/cdbjgs/6898.html
值得一提的是,在去年12月底财报会议上上,美光CEO Sanjay Mehrotra对外透露,得益于生成式AI的火爆,推动了云端高性能AI芯片对于高带宽内存(HBM)的旺盛需求,美光2024年的HBM产能预计已全部售罄。其中,2024年初量产的HBM3E有望于2024会计年度创造数亿美元的营收。
技术优先,HBM4将成未来竞争焦点
“随着生成式AI服务的多样化和进步,对AI内存解决方案HBM的需求也呈爆炸式增长。HBM 以其高性能和高容量的特性,是一款具有里程碑意义的产品,它动摇了存储半导体只是整个系统的一部分的传统观念。尤其是SK海力士HBM的竞争力尤为突出。”金基泰说到。
金基泰强调,HBM的销售竞争力也是基于“技术”。这是因为,为了及时应对AI内存需求快速增长的市场形势,首先确保客户所需的规格最为重要。其次,察觉市场变化并提前做好准备也很有效。
HBM(高带宽内存):一种高价值、高性能产品,通过通过硅通孔(TSV)连接多个 DRAM 芯片,创新性地提高了数据处理速度。HBM已发展到第1代(HBM)、第2代(HBM2)、第3代(HBM2E)、第4代(HBM3),目前已发展到第5代(HBM3E)。HBM3E是HBM3的扩展版本。
此前SK海力士就曾对外宣布,该公司的HBM3E将在今年上半年发布。最新的报道也显示,SK海力士于1月中旬正式结束了HBM3E高带宽內存的开发工作,并且顺利完成了英伟达(NVIDIA)历时半年的性能评价,计划于今年3月开始大规模生产HBM3E,并在4月针对英伟达供应首批产品。相比之下,其竞争对手三星电子和美光虽然很早也向英伟达提供了HBM3E样品,但它们要到3月份才会开始最终的产品品质认证测试。
据了解,SK海力士的HBM3e在 1024 位接口上拥有9.6 GT/s 的数据传输速率,单个 HBM3E 内存堆栈可提供 1.2 TB/s 的理论峰值带宽,对于由六个堆栈组成的内存子系统来说,带宽可高达 7.2 TB/s。
随着人工智能和高性能计算(HPC)行业的需求持续增长,因此具有2048位接口的下一代HBM4内存成为各家内存大厂发力的重点。SK海力士认为,HBM4将推动人工智能市场的巨大增长。
据了解,下一代的HBM4 将使用 2048 位接口,可以将每个堆栈的理论峰值内存带宽提高到 1.5 TB/s 以上。为了实现这一目标,HBM4 需要具有约 6 GT/s 的数据传输速率,这将有助于控制下一代 DRAM 的功耗。同时,2048 位内存接口需要在内插器上进行非常复杂的布线,或者仅将 HBM4 堆栈放置在芯片顶部。在这两种情况下,HBM4 都会比 HBM3 和 HBM3E 更昂贵。
目SK海力士已经启动了HBM4的研发。至于HBM4的量产时间,SK海力士、三星、美光这三家HBM大厂都计划是在2026年开始大规模生产。不过,从目前的HBM研发进度上来看,SK海力士更具领先优势。
值得一提的是,近期有传闻称,SK海力士将赴美国印第安纳州打造先进封装厂,主要以3D堆叠制程以打造HBM,未来会整合进英伟达的AI GPU,并且可能还会转向堆叠在主芯片之上,为其提供更大的助力。