Notebookcheck Logo

传三星和 SK 海力士将借助 HBM4 DRAM 标准的出现提升人工智能加速器性能

双倍 HBM3E 带宽(图片来源:三星)
双倍 HBM3E 带宽(图片来源:三星)
如果三星和 SK Hynix 能够保持与当前 HBM3E 配置相同的内存堆栈数量,HBM4 可以提供加倍的 2048 位总线宽度和高达 2.3 TB/s 的内存带宽。
AI GPU

与我们看到的集成在消费类显卡中的 GDDR 解决方案相比,HBM DRAM 仍然昂贵 消费类显卡相比,HBM DRAM 的价格仍然很高,但其性能提升是有道理的。这也是 HBM 目前主要用于 HPC 和 AI 加速的原因。这也是为什么 Nvidia 最新的 H100 显卡价格如此昂贵的原因,因为它们内置了 HMB3E DRAM。接近 DigiTimes 的韩国消息人士称,随着 HBM4 标准的推出,这种情况很快就会改变,因为 HBM4 标准将内存总线宽度增加了一倍。

据 DigiTimes 称,HBM4 将是 HBM DRAM 历史上最重要的升级,因为它将把堆栈总线宽度从 1024 位增加到 2048 位。当前的 HBM3 标准每个芯片的速度约为 9 GT/s,所有堆栈的峰值带宽为 1.15 TB/s。如果 HBM4 标准保持相同的堆栈数量,峰值带宽基本上可以达到 2.30 TB/s。

Nvidia H100为例。这款显卡采用 6 个 1024 位 HBM3E 已知良好堆栈裸片(KGSD),组合成 6144 位接口。由于担心生产超过 1,024 个硅通孔的内存堆栈的难度会增加、 三星SK 海力士需要证明它们确实能在将总线宽度增加到 2048 位的同时保持相同的堆栈数量,尽管它们声称产量接近 100%。

 

在亚马逊购买配备 80GB HBM2E 内存的 Nvida H100 计算卡

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2023 09 > 传三星和 SK 海力士将借助 HBM4 DRAM 标准的出现提升人工智能加速器性能
Bogdan Solca, 2023-09-14 (Update: 2023-09-14)