美光领先于SK Hynix 和三星 启动HBM3E内存的生产

站长云网 2024-02-27 5iter.com 站长云网

美光科技(MicronTechnology)周一表示,该公司已开始批量生产其HBM3E内存。该公司的HBM3E已知良好堆栈芯片(KGSD)将用于NVIDIA的H200计算GPU,用于人工智能(AI)和高性能计算(HPC)应用,该产品将于2024年第二季度出货。

美光透露其正在大规模生产24GB8-HiHBM3E设备,每个设备的数据传输速率为9.2GT/s,峰值内存带宽超过1.2TB/s。与HBM3相比,HBM3E将数据传输速率和峰值内存带宽提高了44%,这对于像NVIDIA的H200这样对带宽要求极高的处理器尤为重要。

NVIDIA的H200产品采用Hopper架构,计算性能与H100相同。同时,它配备了141GBHBM3E内存,带宽达4.8TB/s,比H100的80GBHBM3和3.35TB/s带宽有了显著提升。

美光使用其1β(1-beta)工艺技术生产其HBM3E,这对该公司来说是一项重大成就,因为该公司将其最新的生产节点用于数据中心级产品,这是对制造技术的一种考验。随着美光即将于2024年3月发布36GB12-HiHBM3E产品,代表着公司的人工智能内存路线图得到了进一步巩固,与此同时这些设备接下来将用于何处还有待观察。

领先于竞争对手SKHynix和三星开始量产HBM3E内存是美光公司取得的一项重大成就,目前美光公司在HBM领域占据10%的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出高端产品,从而有可能增加收入和利润率,同时获得更大的市场份额。

美光科技执行副总裁兼首席业务官SumitSadana表示:"美光在HBM3E这一里程碑上实现了三连冠:领先的上市时间、同类最佳的行业性能以及与众不同的能效特性。人工智能工作负载在很大程度上依赖于内存带宽和容量,美光通过我们业界领先的HBM3E和HBM4路线图,以及我们面向人工智能应用的全套DRAM和NAND解决方案组合,在支持未来人工智能的大幅增长方面处于非常有利的位置。"

责任编辑:站长云网