当前位置:主页 > 全球科技 > 科技巨头排队购买 据科技媒体报道,继 英伟达 之后

科技巨头排队购买 据科技媒体报道,继 英伟达 之后

时间:2023-10-18 04:56:39 作者:
摘要:据科技媒体报道,继 英伟达 之后,全球多个科技巨头都在竞购SK海力士的第五代高带宽内存 HBM3E。半导体行业内部人士称,各大科技巨头已经在向SK海力士请求获取HBM3E样本

科技媒体报道,继英伟达之后,全球多个科技巨头都在竞购SK海力士的第五代高带宽内存 HBM3E。半导体行业内部人士称,各大科技巨头已经在向SK海力士请求获取HBM3E样本,包括 AMD、微软和亚马逊等等。

AMD最近透露了其下一代GPU MI300X,表示它将从SK海力士和三星电子获得HBM3供应。除英伟达和AMD之外,亚马逊和微软则是云服务领域的两大巨头,之前已引入生成式人工智能技术,并大幅追加了对于AI领域的投资。

报道称,SK海力士正忙于应对客户对HBM3E样品的大量请求,但满足英伟达首先提出的样品数量要求非常紧迫。

SK海力士于2021年10月宣布成功开发出容量为16 GB的HBM3 DRAM,在2022年6月初即宣布量产。HBM3E是HBM3的下一代产品,SK海力士是目前世界上唯一一家能够大规模生产HBM3芯片的公司。

AI服务器带火HBM

HBM即为高带宽存储器,是一种基于3D堆叠工艺的DRAM内存芯片,具有更高带宽、更多I/O数量、更低功耗、更小尺寸等优点。

HBM突破了内存容量与带宽瓶颈,可以为GPU提供更快的并行数据处理速度,打破“内存墙”对算力提升的桎梏,被视为GPU存储单元理想解决方案。AI服务器对带宽提出了更高的要求,而HBM基本是AI服务器的标配,超高的带宽让HBM成为了高性能GPU的核心组件。

今年5月,英伟达宣布推出大内存AI超级计算机DGX GH200,该产品集成最多达256个GH200超级芯片,是DGX A100的32倍。机构推测,在同等算力下,HBM存储实际增量为15.6倍。

在DRAM的整体颓势之中,HBM却在逆市增长。据媒体报道,2023年开年后三星、SK海力士两家存储大厂HBM订单快速增加,HBM3规格DRAM价格上涨5倍。为应对人工智能半导体需求增加,有消息称SK海力士将追加投资高带宽存储器(HBM)产线,目标将HBM产能扩大2倍。

6月28日,TrendForce集邦咨询发表研报称,目前高端AI服务器GPU搭载HBM芯片已成主流,预计2023年全球HBM需求量将增近六成,达到2.9亿GB,2024年将再增长30%。

集邦咨询预计,目前英伟达A100、H100、AMD MI300,以及大型云服务提供商谷歌、AWS等自主研发的ASIC AI服务器增长需求较为强劲,预计2023年AI服务器出货量(含GPU、FPGA、ASIC等)在120万台,年增长率近38%。AI芯片出货量同步看涨,预计今年将增长50%。

HBM未来市场规模超20亿美元

中金公司表示,随着模型的进一步复杂化,推理侧采用Nvidia A100/H100 等中高端GPU是大势所趋,HBM的渗透率有望快速提升。据测算,到2025年HBM整体市场有望达到20亿美元以上。

相关阅读

发表评论

登录后才能评论

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件举报,一经查实,本站将立刻删除。