您现在所在位置: 主页 > 新闻中心 > 常见问题

公司资讯

Company information

行业动态

Industry dynamics

常见问题

Common Problem

电子元器件行业专题报告:算力需求快速增长BBIN BBIN宝盈 AI服务器量价齐升

发布日期:2023-05-18 10:25 浏览次数:

  AI 模型复杂度快速提升,拉动算力需求快速增长。AI 模型从最早2012 年(AlexNet)问世以来,深度和广度一直在逐级扩升。作为目前最大的语言模型之一,2020 年发布的GPT-3 使用了1750 亿个参数,是其前代的100 多倍,微软和英伟达共同开发的 Megatron-Turing-NLG 模型参数量则达5300 亿。据中国信通院撰写的《中国算力发展指数白皮书》,过去10 年用于AI 训练模型的计算资源激增,AI 训练的计算复杂度每年猛增10 倍,人工智能计算已成为主流的计算形态,全球智能算力规模(换算为FP32)将由2021 年232EFlops 快速增长至2030 年的52.5ZFlops,期间CAGR 超过80%。

  TrendForce 预计2026 年全球AI 服务器出货量约20 万台。TrendForce 表示,在AIGC、自动驾驶、AloT、边缘计算等新兴应用带动下,诸多大型云厂商加大AI 相关基础设施建设,预计搭载GPGPU(GeneraPurpose GPU)的AI 服务器2022 年出货量仅占整体服务器市场的1%,并有望在2026 年增长至20 万台,2022-2026 年CAGR 为10.8%。据TrendForce 统计,2022 年AI 服务器采购占比以北美四大云厂商为主,微软、Google、Meta、AWS 合计贡献66.2%,国内则以字节跳动投入最为积极,占比6.2%。

  不同类型的服务器成本结构存在差异,芯片成本占比随服务器性能提升而升高。

  服务器本质是计算机,核心硬件包括CPU、以GPU 为代表的加速卡、内存、硬盘、网卡、电源、主板等。其中以CPU 和GPU 为代表的算力芯片是服务器主要成本项,占比随着服务器性能的提高而逐渐上升。综合华经情报网和ARK数据,芯片成本在普通服务器中约占总成本的32%,而用于机器学习的服务器因通常搭载多卡高性能GPU 导致芯片成本占比迅速提升至83%。

  AI 服务器和普通服务器之间的区别在于其硬件配置和使用方式。AI 服务器用于处理深度学习工作负载的海量数据,包括需要大内存容量、高带宽和整体系统内缓存一致性的训练和推断。相较于普通服务器,AI 服务器新增多张高性能加速器(绝大部分为GPU),拥有更高的计算能力、更快的处理速度和更大的存储空间,以支持高负载和复杂的计算任务。

  随着GPU 向A100 向H100 升级迭代,AI 服务器有望迎来量价齐升。根据英伟达官网,相较于前代A100,H100 综合计算性能提高6 倍,得益于:1)采用第四代 Tensor Core 和具有 FP8 精度的 Transformer 引擎,持续优化大模型训练和推理表现;2)升级第四代NVLink,提供高达 900 GB/s 的 GPU 与 GPU之间互连;3)更高的显存带宽。我们认为,随着价格更高的H100 在今年陆续出货,AI 服务器市场将在今年迎来持续量价齐升。基于此,我们看好在算力芯片、服务器代工、内存等关键领域具有卡位优势、产品竞争力较强的公司,建议关注:1)算力芯片;2)服务器代工;3)存储:北京君正、兆易创新、澜起科技等。

020-88888888