《电子技术应用》
您所在的位置:首页 > 模拟设计 > 业界动态 > 卡住AI脖子 HBM成韩国出口王牌

卡住AI脖子 HBM成韩国出口王牌

2025-08-12
来源:快科技
关键词: HBM AI芯片 存储

8月11日消息,AI这两年来成为市场热点,并且也成为大国竞争的关键技术之一,NVIDIA的GPU虽然更强大,但在存储芯片上也要依赖韩国厂商,因为HBM内存逐渐卡住AI脖子。

9184948b-5b9f-45c7-a390-404133c40ffe.png

HBM(High Bandwidth Memory)是一种高带宽内存标准,主要用于满足日益增长的计算需求。

相比传统内存,HBM可以提供更高的数据传输速率和更低的延迟。

在这个领域,率先量产的是SK海力士,美国也有美光公司开始量产,内存一哥三星反而是最慢的。

HBM最新标准已经到了HBM4,但市场上当前的主力还是HBM3E,堆栈层数正在从8层提升到12层,单颗容量轻松达到36GB,而SK海力士凭借技术优势可以做到16层堆栈,容量48GB,今年就能供货。

得益于市场优势,SK海力士HBM事业部高管崔俊龙Choi Joon-yong日前在采访中表示,来自终端用户对AI的需求非常庞大,而且非常稳固。

该公司也预测到2030年之前,HBM市场将以每年30%的增长率发展,市场规模将达到数百亿美元。

HBM内存也逐渐成为韩国芯片出口的王牌,去年对美国的芯片总出口为107亿美元,其中HBM就占了存储芯片的18%。

NVIDIA、AMD及Intel三家主要的AI芯片巨头当前及下一代的AI芯片也会进一步提升HBM显存的容量和速度,其中AMD明年的主力产品MI400将使用高达432GB的HBM4,带宽19.6TB/s,对比MI350系列的288GB HEM3E、8TB/s分别增加50%、145%,比竞争对手的产品也高出50%。

值得一提的是,HBM也成为国内AI芯片发展的关键限制因素之一,国内也有公司在自研HBM芯片,但技术水平落后SK海力士一两代,HBM3e、HBM4量产还要等几年时间。

不过华为即将在未来两天公布一项新技术,这项成果或能降低中国AI推理对HBM(高带宽内存)技术的依赖,提升国内AI大模型推理性能,完善中国AI推理生态的关键部分。


官方订阅.jpg

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。