英伟达计划从三星采购高带宽内存(HBM)芯片,这是人工智能处理器的关键组件,这家韩国电子巨头试图追赶竞争对手SK海力士,后者最近开始大规模生产下一代HBM芯片。
“HBM 内存非常复杂,附加值非常高。我们在 HBM 上投入了大量资金,”(原文:"HBM memory is very complicated and the value added is very high. We are spending a lot of money on HBM,")Nvidia 联合创始人兼首席执行官黄仁勋周二在加利福尼亚州圣何塞举行的媒体吹风会上表示。
黄仁勋表示,Nvidia 正在对三星的 HBM 芯片进行资格认证,并将在未来开始使用它们。
“三星非常好,一家非常好的公司,”黄补充道。
与此同时,三星在存储芯片领域的最大竞争对手SK海力士周二宣布,已开始量产下一代高带宽存储芯片HBM3E。
HBM 已成为人工智能热潮的重要组成部分,因为与传统存储芯片相比,它提供了急需的更快的处理速度。
黄仁勋表示:“HBM 是一个技术奇迹。”(HBM is a technology miracle)他补充说,HBM 还可以提高能源效率,并且随着耗电的人工智能芯片变得更加普遍,可以帮助世界变得更加可持续。
SK 海力士实际上是 AI 芯片领导者 Nvidia 的 HBM3 芯片的唯一供应商。虽然没有透露新 HBM3E 的客户名单,但 SK 海力士高管告诉《日经亚洲》,新芯片将首先运送给 Nvidia 并用于其最新的 Blackwell GPU。
三星一直在 HBM 上投入巨资,以追赶竞争对手。该公司于2月份宣布开发出HBM3E 12H,这是业界首款12堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。
黄仁勋在周二的媒体吹风会上对记者表示:“三星和 SK 海力士的升级周期令人难以置信,一旦 Nvidia 开始增长,他们就会与我们一起成长。”
“我非常重视我们与 SK 海力士和三星的合作关系,”他补充道。
SK海力士在HBM竞争中领先
继HBM3取得成功后,SK海力士率先量产第五代HBM、HBM3E DRAM,并将其供应给美国半导体公司Nvidia,巩固了其在高带宽内存(HBM)市场的主导地位。
3月19日,SK海力士宣布将于本月底向客户Nvidia供应最新高性能AI内存产品HBM3E,并为3月起Nvidia举办的AI开发者大会(GTC 2024)开始量产。这距离SK海力士去年8月宣布开发HBM3E仅7个月。
SK海力士表示:“继HBM3之后,我们率先向客户提供HBM3E,它实现了现有DRAM中的最高性能。我们计划通过成功量产HBM3E来继续我们在AI内存市场的竞争优势。”
此前,美国美光公司于当地时间 2 月 26 日宣布,计划为 Nvidia 最新 GPU H200 提供 8 个堆栈的 24 GB HBM3E,该 GPU 预计将于今年第二季度(4 月至 6 月)推出,引起了业界关注。年。不过,据悉SK海力士是第一个量产并实际交付的。一位业内人士透露,“SK海力士从1月底开始生产HBM3E,并一直在与Nvidia一起测试该产品。美光已于二月底开始生产,但据了解,他们尚未达到足以交付的产量。” 业界对美光HBM3E产品的初始产量和产能存在很大疑问。
三大公司下一代HBM市场的决定性因素被认为是良率和堆叠方式。随着 DRAM 堆叠得越来越高,HBM 厚度也会增加,从而给热控制带来挑战。堆叠芯片时施加的物理压力也会导致弯曲问题。
为了克服这些挑战,三星电子和SK海力士采用了不同的堆叠方法。三星电子采用先进热压非导电薄膜(TC NCF)方法,在DRAM之间插入非导电粘合薄膜来粘合HBM,而SK海力士则采用先进大规模回流模塑底部填充(MR-MUF)方法,它在工艺之间注入液体保护材料并使其硬化。
业内人士表示,“凭借在HBM3方面的技术优势,SK海力士有望在HBM3E市场上继续与Nvidia保持牢固的合作关系。然而,随着三星电子推出业界最大容量的 12 堆栈 HBM3E 作为游戏规则的改变者,高堆栈 HBM 的竞争预计将加剧。”
随着AI半导体市场的扩大,HBM销售额占DRAM收入的比例正在迅速增加。市场研究公司TrendForce预测,HBM销售额占DRAM总营收的比重将从2022年的2.6%上升至2023年的8.4%,今年将进一步升至20.1%。HBM的产能预计今年也将大幅增加。去年,三星电子和SK海力士每月生产约45,000片晶圆,但今年,三星电子的产量预计将增至130,000片,SK海力士的产量将增至120,000至125,000片。美光在 HBM 市场排名第三,预计去年每月生产 3,000 片晶圆,今年每月生产 20,000 片晶圆。