英伟达下一代AI卡或用HBM3E 环球即时看
- 来源:中关村在线
- 时间:2023-06-21 12:36:29
(资料图片仅供参考)
据报道,根据DigiTimes报道的 "行业消息",Nvidia对评估SK Hynix的HBM3E样品感兴趣。如果信息是准确的,那么Nvidia用于人工智能和高性能计算应用的下一代计算GPU可能会使用HBM3E内存而不是HBM3。
根据韩国Money Today和Seoul Economic Daily引用的行业消息,Nvidia已经要求SK Hynix提供HBM3E的样品,以评估其对GPU性能的影响。
SK Hynix即将推出的HBM3E内存将把数据传输率从目前的6.40 GT/s提高到8.0 GT/s。这一改进将使每堆栈带宽从819.2GB/s提升到1TB/s。然而,围绕HBM3E与现有HBM3控制器和接口的兼容性存在不确定性,因为SK海力士还没有披露新技术在这方面的信息。在任何情况下,Nvidia和其他计算AI和HPC GPU的开发者将需要评估技术。
SK海力士似乎打算在2023年下半年开始对其HBM3E存储器进行采样,并计划在2023年底或2024年开始大规模生产。SK Hynix计划使用其1b纳米制造工艺制造HBM3E内存,这是公司第五代10纳米级的DRAM节点。这种制造工艺目前被用于生产DDR5-6400 DRAM。同样的技术将用于生产用于高性能、低功耗应用的LPDDR5T内存芯片。
Nvidia的哪些计算GPU将使用HBM3E内存还有待观察,尽管该公司很可能在其2024年到期的下一代处理器中使用这种新型内存。同时,我们不知道这将是一个改进的Hopper GH100计算GPU还是全新的东西。
SK海力士目前控制了超过50%的HBM内存市场,是唯一一家提供HBM3的公司。它也将是HBM3的独家制造商,至少在最初。
Yole Development,一家市场研究公司,预计HBM内存市场将大幅扩张,因为它比其他类型的DRAM具有独特的带宽优势。该公司估计,2023年市场价值为7.05亿美元,到2027年将增长近一倍,达到13.24亿美元的价值。
关键词: