KAIST实验室发布HBM未来路线图:2040年前规划至HBM8,引领AI内存革新

KAIST实验室发布HBM未来路线图:2040年前规划至HBM8,引领AI内存革新

韩国科学技术高级研究院(KAIST)太字节互连与封装实验室(TERA实验室)在周三举行的一场在线会议上,公布了从今年到2040年高带宽内存(HBM)技术从HBM4到HBM8的标准技术规范,为AI专用内存的未来发展勾勒出一幅清晰的蓝图。此次发布由该实验室负责人金周浩教授领导,他作为HBM设计领域的领先专家,在演讲中强调可扩展性将成为定义HBM未来的关键因素。

目前,HBM3e是商业化制造的最先进的HBM芯片,在内存带宽和性能方面已经达到了相当高的水平。而像三星电子和SK海力士这样的内存芯片制造巨头,正紧锣密鼓地为HBM4的大规模生产做准备。HBM4的一大亮点在于其带宽更宽,能够满足日益增长的AI计算需求。同时,它还配备了定制的基板,可以运行英伟达和AMD等AI芯片制造商所需的各种功能,为AI应用提供更强大的支持。

KAIST实验室发布HBM未来路线图:2040年前规划至HBM8,引领AI内存革新

根据TERA实验室的估计,HBM5可能会在2029年首次亮相。这一代的HBM预计将带来一个关键进展——3D近内存计算。它利用先进的封装技术,将计算或缓存芯片直接嵌入或堆叠在内存堆栈内或上方。这种设计能够显著减少数据传输的延迟,提高内存和计算单元之间的通信效率,从而进一步提升AI系统的整体性能。

此外,为了解决芯片在高速运行时产生的热量问题,HBM5将采用浸没冷却法。这种方法将整个HBM包装沉浸在冷却液中,通过冷却液的高效热传导性能,实现更有效的热管理,确保芯片在稳定的温度环境下运行,延长芯片的使用寿命,提高系统的可靠性。

预计在2032年推出的HBM6,有望采用多芯片架构来克服内存容量限制。与以往单纯堆叠更高内存的方式不同,HBM6通过将额外的HBM堆栈并排放置来扩展容量。这种设计在保证内存带宽和性能的同时,能够提供更大的内存容量,满足日益复杂和庞大的AI模型对内存的需求,为AI技术的发展提供更坚实的硬件基础。

TERA实验室预计HBM7将于2035年推出,它将采用混合架构,将HBM与其他类型的内存(如低功耗DDR和闪存)结合在一起。这种组合能够充分发挥不同类型内存的优势,低功耗DDR可以提供更低的功耗,延长设备的续航时间;闪存则可以提供更大的存储容量;而HBM则提供高带宽的内存访问。通过这种混合架构,能够在提升性能的同时,进一步增加内存容量,满足未来各种复杂应用场景的需求。

HBM8预计将在2038年推出,这款芯片将采用完整的3D架构。在这种结构中,HBM可以直接安装在图形处理单元(GPU)顶部,或者与GPU一起安装在基板的两侧。这种紧密的集成方式能够最大程度地减少数据传输的距离和时间,实现内存和GPU之间的高效协同工作,为AI计算带来前所未有的性能提升。

金周浩教授表示:“此次演讲旨在增强行业对HBM技术未来的理解,并为韩国半导体产业的可持续发展做出贡献。”该实验室计划与三星电子和SK海力士等主要国内芯片制造商分享此次演示内容,共同推动HBM技术的发展和应用。同时,他们还计划在国外,特别是硅谷举行类似的演示,加强与国际半导体行业的交流与合作,提升韩国在HBM技术领域的国际影响力。

随着HBM技术的不断发展和演进,未来AI应用将迎来更强大的内存支持,无论是在人工智能训练、大数据分析还是高性能计算等领域,都将取得更加显著的进展。

本内容为作者独立观点,不代表32度域立场。未经允许不得转载,授权事宜请联系 business@sentgon.com
如对本稿件有异议或投诉,请联系 lin@sentgon.com
👍喜欢有价值的内容,就在 32度域 扎堆
(0)
上一篇 2025年6月12日 17:56
下一篇 2025年6月12日 23:09

猜你喜欢

发表回复

登录后才能评论