闪迪展示前沿技术 HBF,有望变革 AI 推理 GPU 存储生态
发布时间:2025-02-13 11:19:18来源:
2 月 13 日消息,即将于今年一季度完成从西部数据拆分并计划独立上市的闪迪,在当地时间本月 11 日的投资者活动上,带来了一项有望改变 AI 推理 GPU 存储生态的前沿技术 —— 高带宽闪存 HBF。
HBF 是一款带宽优化的 NAND 产品,其设计思路与当下热门的 HBM(高带宽存储器)基本一致,采用大量 I/O 引脚、多层堆叠的方式,并且与 HBM 共享相同电气接口,这使得 HBF 的带宽能够与 HBM 相匹配,满足高性能计算对于数据读写速度的严苛需求。不过,由于存储介质从 DRAM(动态随机存取存储器)变为 NAND,HBF 对协议进行了调整,因此与 HBM 并非完全兼容。
在技术架构上,HBF 中多层核心裸晶通过微凸块,利用硅通孔手段堆叠在一起,在整个 HBF 堆栈底部是负责同计算芯片通信的逻辑裸晶。这样的设计不仅保障了数据传输的高效性,还实现了超低的裸晶翘曲。目前,闪迪已可实现 16 层堆叠,单堆栈容量可达 512GB。
如此一来,通过 2.5D 集成 8 个 HBF 堆栈的单个 AI GPU,便能拥有高达 4096GB(4TB)的存储空间,这一数据是纯 HBM 方案的 20 倍以上。强大的存储能力,使得其可满足参数约 1.8T 的前沿 LLM(大语言模型)模型的推理运行需求,为 AI 推理任务提供了坚实的存储基础。
值得一提的是,鉴于 HBF 和 HBM 在技术路线、性能参数上的相似性,AI GPU 还能够混合配置这两种存储,形成如 3072GB HBF + 48GB HBM 等高度自定义的组合,从而根据不同的应用场景和需求,灵活调整存储配置,进一步提升系统性能。
除了在 AI 推理 GPU 领域的巨大潜力,闪迪的 HBF 在边缘 AI 领域也有望成为重要助力。单颗 HBF 就可容纳完整的 64B 模型,这对于边缘计算设备来说,意味着能够在有限的空间和资源下,运行更复杂、更强大的 AI 模型,提升边缘设备的智能化水平。
闪迪的 HBF 开发得到了主要 AI 企业的助力,并且计划推动构建 HMF 开放标准生态系统,以实现无缝系统集成。这一举措将有助于 HBF 技术在更广泛的领域得到应用和推广,促进整个 AI 存储生态的发展和完善。
对于未来 HMF 产品,闪迪也有着清晰的规划,目标到第三代实现 2 倍容量、2 倍读取带宽和 36% 功耗降低。随着技术的不断迭代和升级,HBF 有望在 AI 存储领域发挥更为重要的作用,推动 AI 技术的进一步发展和应用。
(责编: admin1)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。