IT之家 4 月 18 日消息,AI 服务器出货动能强劲带动 HBM 需求提升,据 TrendForce 集邦咨询研究显示,2022 年三大原厂 HBM 市占率分别为 SK 海力士(SK hynix)50%、三星(Samsung)约 40%、美光(Micron)约 10%。此外,高阶深度学习 AI GPU 的规格也刺激 HBM 产品更迭,2023 下半年伴随 NVIDIA H100 与 AMD MI300 的搭载,三大原厂也已规划相对应规格 HBM3 的量产。因此,在今年将有更多客户导入 HBM3 的预期下,SK 海力士作为目前唯一量产新世代 HBM3 产品的供应商,其整体 HBM 市占率有望藉此提升至 53%,而三星、美光则预计陆续在今年底至明年初量产,HBM 市占率分别为 38% 及 9%。(IT之家注:HBM 全称 high bandwidth memory,新型 CPU / GPU 内存芯片,将多个 DDR 芯片堆叠在一起后和 GPU 封装在一起,实现大容量,高位宽的 DDR 组合阵列)
预估 2023 年 AI 服务器出货量年增 15.4%
目前 NVIDIA 所定义的 DL/ ML 型 AI 服务器平均每台均搭载 4 张或 8 张高端显卡,搭配两颗主流型号的 x86 服务器 CPU,而主要拉货力道来自于美系云端业者谷歌、AWS、Meta 与微软。据 TrendForce 集邦咨询统计,2022 年高端搭载 GPGPU 的服务器出货量年增约 9%,其中近 80% 的出货量均集中在中、美系八大云端业者。展望 2023 年,微软、Meta、百度与字节跳动相继推出基于生成式 AI 衍生的产品服务而积极加单,预估今年 AI 服务器出货量年增率有望达 15.4%,2023~2027 年 AI 服务器出货量年复合成长率约 12.2%。
AI 服务器刺激 Server DRAM、SSD 与 HBM 需求同步上升
根据调查,AI 服务器有望带动存储器需求成长,以现阶段而言,Server DRAM 普遍配置约为 500~600GB 左右,而 AI 服务器在单条模组上则多采 64~128GB,平均容量可达 1.2~1.7TB 之间。以 Enterprise SSD 而言,由于 AI 服务器追求的速度更高,其要求优先满足 DRAM 或 HBM 需求,在 SSD 的容量提升上则呈现非必要扩大容量的态势,但在传输接口上,则会为了高速运算的需求而优先采用 PCIe 5.0。而相较于一般服务器而言,AI 服务器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8 张计算,HBM 用量约为 320~640GB。未来在 AI 模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动 Server DRAM、SSD 以及 HBM 的需求成长。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。