Copyright © 2022-2026 aizws.net · 网站版本: v1.2.6·内部版本: v1.25.6·
页面加载耗时 0.00 毫秒·物理内存 81.0MB ·虚拟内存 1302.2MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
1 月 17 日消息,在部分业内人士中有“HBM 之父”之称的韩国 KAIST 学者 Kim Jung-Ho 昨日在一场论坛研讨会上表示,尽管 HBM 高带宽内存从初代推出到走至半导体产业舞台中央花了近 10 年的时间,但 HBF 高带宽闪存的这一过程将更为迅速。
一方面,几大存储原厂在开发 HBM 时积攒了大量堆栈构建方面的设计和工艺技术;另一方面,AI 的爆炸式发展导致 HBM 在容量上已难以满足 AI 负载的数据需求。

继 SK 海力士后,三星电子也加入了闪迪首创的 HBF 技术阵营,三方正合作实现 HBF 的标准化。业内人士预测,HBF 的带宽将超过 1638GB/s(注:相当于 PCIe 6.0×4 的 50 倍),容量则将达到 512GB。
在商业化进程上,SK 海力士有望在本月晚些时候展示 HBF 的早期测试版本,三星电子与闪迪正向 2027 年底 ~2028 年初应用于英伟达、AMD、谷歌的 AI XPU 这一目标迈进。而 HBF 的广泛应用则将等到 HBM6 发布,届时单个基础裸片将集成多组存储堆栈。
Kim Jung-Ho 认为,HBM 与 HBF 的关系犹如书房与图书馆,前者容量较小、应用更为方便,后者容量更大、延迟更高;针对 NAND 闪存与 DRAM 内存的底层区别,软件工程师需对操作 HBF 中数据的算法进行优化,尽量减少写入次数。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。