GPU 方案目前是加速服务器的主流方案。根据 IDC 数据,目前全球应用于加速服务器的 GPU 方案份额大于 85%,剩余的 NPU、ASIC、FPGA 等非 GPU 方案份额约为 15%。从 下游来看,目前互联网厂商是采购主力。1)GPU 方案:GPU 是图形处理器,专用于图形、视频等高性能计算。针对高强度并行 计算,GPU 相较 CPU 而言性能更具优势。目前 GPU 主要应用在图形加速和计算等方面, 在计算端,同时 CPU 搭配 GPU 异构,CPU 符合执行逻辑处理,GPU 负责计算大规模数据并行计算,可以理解为 CPU 的协处理器。从目前的产业生态来看,随英伟达推出 CUDA 后,不断降低开发门槛,CUDA 生态具有较高壁垒。从格局来看,目前 GPU 加速卡里英 伟达是全球绝对领导者,2021 年英伟达占有加速器市场 90%以上份额,目前服务器主流 方案搭配英伟达 V100/A100/ H100 等芯片。

2)非 GPU 方案:主要以 NPU、ASIC、FPGA 等芯片为主,其中 ASIC 和 FPGA 各有特 点。FPGA 灵活性强,功耗低,ASIC 针对性强。我们觉得未来 FPGA 适用于部分对灵活 性要求高快速变化的场景,后续随 AI 逐步发展,FPGA 特性将凸显,未来在服务器中份 额占比会逐步扩大,未来国内厂商产品有望在推理段实现逐步替代。
海外禁售推进国产替代加速。2022 年下半年,美国新增了 3A090 针对高性能芯片的出口 管制规定,限制了 I/O 传输速率在 600Gbyte/s 以上或者“数字处理单元+原始计算单元” 算力和在 4800TOPS 以上的芯片,该项规定限制了英伟达 A100 和 H100 芯片对中国等出 口。目前产业趋势来看,随下游大模型陆续推出,AI 算力需求迅速增加,高算力 GPU 的 国产化推进进程加速。国内企业处于追赶阶段,目前国内 GPU 产品在诸多方面与海外仍有差距。目前国内 GPU 加速计算公司主要有海光信息、寒武纪、景嘉微、壁仞科技等,从硬件端来看,大致与海 外产品有一代以上的差距,从软件端生态来看,国内公司的软件与英伟达 CUDA 生态差 距较大,突破更为不易。但从目前产品迭代进展已经产业链进程来看,国内厂商处于加速 追赶的状态,高算力 GPU 国产化会逐步上升。
3.3、光模块:高速产品迎商用元年,龙头供应商弹性可期
光模块是一种用于数据传输的光器件,其功能是实现光信号和电信号之间的相互转换,从 而实现数据的传输,下游应用主要包括电信领域和数通领域。训练大型语言模型所需的计 算资源不断增加,这些计算资源需要通过网络连接到训练模型的服务器上,对光模块要求 提高,同时拉动光模块需求。根据 Yole,2020 年全球光模块市场规模约 96 亿美元,其中数通市场约 53 亿美元,电信 市场 43 亿美元。预计到 2026 年全球光模块市场将达到 209 亿美元,其中数通市场复合 增速最快,数通市场以 19%的复合增速将达到 151 亿美元。
2022 年是 800G 光模块商用的元年,2023 年 800G 光模块全球出货量增速进一步上扬。随着 AI 等新技术不断发展,网络流量长期保持持续增长,相关光模块需求也将保持较快 增长并不断迭代升级。国内光模块厂商在全球具有重要市场地位,市场份额有望持续提升。Lightcounting 在 2021 年发布的光模块厂商排名中,中际旭创位居全球第二。另外,Omdia 的数据也显示, 中际旭创 2021 年的市场份额位居全球第二,约为 10%,光迅科技市场份额为 8%,居全 球第四。

3.4、PCB:量价共振促成长,先发企业持续受益
服务器为 PCB 重要下游,算力革命下加速发展。服务器作为算力核心的载体和传输的硬 件,在 AI 变革大背景下用量急速提升,同时向高速、大容量、强性能换代趋势明显。服 务器以网卡、主板为代表的诸多核心部分均需使用 PCB,根据 Prismark 统计及预测,2021 年服务器用 PCB 产值约 78.12 亿美金,占 PCB 行业下游的 9.7%,预计 2021-2026 年服 务器 PCB 市场 CAGR 约 10%,为 PCB 下游增速最快的领域。
用量方面:服务器中电源背板、网卡、主板、硬盘背板和 Riser 卡中都要用到 PCB,主板 的 1 个 PCB 板为标配,在服务器 PCB 中价值占比最高;网卡、光驱、前置背板、VGA 板、RAID 控制卡中均需要使用 1 个 PCB 板,光模块中一般需要 2 个,硬盘中需要 3 个, 内存卡则需使用 20-30 个,加总每台服务器中 PCB 用量为 30-40 个。
价值量方面:根据 Prismark 数据,目前服务器市场中多采用 6 层板和 8-16 层板,合计份 额占 46.88%。根据 ITEQ,随 Intel 服务器平台由 Whitley 升级至 Eagle Stream 以及 AMD 服务器由 Zen3 升级至 Zen4,其使用的 PCB 层数将相应从 12-16 层升到 16-20 层;AI 服务器则在数据传输速度和效率方面比普通服务器要求更高,以 OpenAI 的 AI 服务器为例,其 PCB 层数高达 20-28 层不等。Prismark 统计,2021 年 8-16 层 PCB 板每平方米 价格约 456 美金,18 层以上每平方将达 1538 美金,预计 PCB 每提一层,价值量提升 1000 元左右,因此 AI 服务器价值量可数倍于普通服务器。
根据 IDC、集邦咨询、Prismark 数据,2020-2026 年全球服务器出货量有望从 1220 万台 增长至超 1600 万台,假设中国服务器出货量增速高于全球,且 PCIe 5.0 与 AI 服务器加 速渗透,我们测算至 2023 年全球 PCB 市场空间有望超百亿美元,至 2025 年市场规模有 望超 150 亿美元。

市场格局看,全球 PCB 市场玩家众多,集中度不高。根据各公司 2021 年营收计算其市 占率,PCB 市场中 CR10 约 35.55%,前二分别为中国台湾企业臻鼎科技、欣兴电子,中 国大陆厂商东山精密、深南电路分列前十中的第 3、8 名,市占率分别为 3.96%和 2.69%。一些公司已对服务器 PCB 有所布局,大陆厂商中以深南电路、沪电股份、景旺电子、胜 宏科技、奥士康等为代表,假设服务器 PCB 分别占其 PCB 应用的 15%、15%、8.5%、 10%和 18%,以 2021 年全球服务器市场规模约 78 亿美元为基数,以汇率 1 美元=6.5 元 人民币估算每家公司市占率,则分别为:4.12%、2.19%、1.60%、1.47%、1.57%,累计 市占率达 10.95%,国产替代空间广阔。
3.5、HBM存储:国内空白亟待填补,海力士合作商有望跟随成长
HBM(High Bandwidth Memory)意为高带宽内存,是高性能的 CPU/GPU 核心组件。以 ChatGPT 为代表的 AI 大模型需要使用海量数据进行训练,对数据和带宽的要求不断提 高,大容量服务器 DRAM 和高带宽内存 HBM 可有助于解决日益突出的存算失配问题。HBM 将多个 DDR 芯片堆叠并和 GPU 封装在一起,是一种基于 3D 堆叠工艺的高价值量 DRAM 存储器,并用多根数据线实现高吞吐高带宽特性,例如 HBM/HBM2 用 1024 根数 据线传输数据,而 GDDR/DDR 仅用 32/ 64 根。此外 HBM 堆栈不以外部互连线的方式与 信号处理器芯片连接,而是使用额外的硅联通层和晶片堆叠技术,内部的不同 DRAM 则 采用 TSV 实现信号纵向连接。因此,HBM 每瓦带宽比 GDDR5 高出 3 倍多,表面积相对 DDR5 可以节省 94%,在内存的功耗效率上表现优异。