2024年9月20日

AI 服务器出货量的强劲增长推动了对高带宽内存(HBM)的需求。 2022 年 HBM 前三大供应商分别是 SK 海力士、三星和美光,市场份额分别为 50%、40% 和 10%。此外,专为深度学习设计的高端AI GPU的规格也导致了HBM产品迭代。为准备2023下半年推出NVIDIA H100和AMD MI300,三大供应商都在计划量产HBM3产品。 目前,SK 海力士是唯一量产 HBM3的供应商。随着更多客户采用 HBM3,其市场份额预计将增长至 53%。 三星和美光预计将在今年年底或 2024 年初的某个时候开始量产,市场份额分别为 38% 和 9%。

NVIDIA的DM/ML AI服务器平均配备4块或8块高端显卡和2颗主流x86服务器CPU。 这些服务器主要由美国云服务提供商使用。分析显示,2022年高端GPGPU服务器出货量有望增长9%左右,其中约80%集中在中美8大云服务商。 展望2023年,微软、Meta、百度、字节跳动将陆续推出生成式AI产品和服务,进一步拉动AI服务器出货量。 预计今年人工智能服务器出货量将增长15.4%,预计2023年至2027年人工智能服务器出货量复合年增长率为12.2%。

TrendForce 指出,AI 服务器的兴起很可能会增加对内存使用的需求。 虽然一般服务器有 500-600 GB 的服务器 DRAM,但 AI 服务器需要更多,平均 1.2-1.7 TB,每个模块 64-128 GB。 对于企业级SSD,由于AI服务器的高速需求,优先考虑DRAM或HBM,但SSD容量扩容的推动力尚未明显。 不过在接口方面,PCIe 5.0在解决高速运算需求上更受青睐。 此外,AI 服务器倾向于使用 GPGPU,而 NVIDIA A100 80 GB 配置为4个或8个时,HBM 使用量约为 320–640 GB。 随着 AI 模型变得越来越复杂,对服务器 DRAM、SSD 和 HBM 的需求将同步增长。

发表评论

邮箱地址不会被公开。 必填项已用*标注