品牌  【直播】  50强   整机  ​【联盟】  机构  【视界】  展会  招聘  云服务          微博   公众号AIrobot518 
【​今日焦点
【行业动态】
NEWS / 新闻中心
半导体行业中期策略:AI变革掀科技革命,服务器领航复苏征程
来源:西部证券 | 作者:西部证券 | 发布时间: 372天前 | 2293 次浏览 | 分享到:
今年以来,(截至 4 月 20 日),电子行业上涨 19.30%,在 31 个申万一级行业中排名第 5。2023 年以来,一方面随着疫情政策调整,生产生活秩序加快恢复,电子部分下游细分领 域出现需求复苏迹象,叠加部分芯片设计公司库存改善,半导体设计公司基本面拐点临近, 市场交易逐渐围绕疫后经济恢复和行业拐点展开。另一方面,2023 年国内晶圆厂资本开 支好于之前悲观预期,设备订单有望修复,在美国、日本半导体出口管制政策的背景下, 设备和材料国产替代进入加速期。最后,以 ChatGPT 为代表的 AI 应用迅速发展,算力及 相关产品需求迎来快速增长,有望带来新一轮科技革命,给半导体行业带来新需求。

一、2023年电子行业投资复盘

今年以来,(截至 4 月 20 日),电子行业上涨 19.30%,在 31 个申万一级行业中排名第 5。2023 年以来,一方面随着疫情政策调整,生产生活秩序加快恢复,电子部分下游细分领 域出现需求复苏迹象,叠加部分芯片设计公司库存改善,半导体设计公司基本面拐点临近, 市场交易逐渐围绕疫后经济恢复和行业拐点展开。另一方面,2023 年国内晶圆厂资本开 支好于之前悲观预期,设备订单有望修复,在美国、日本半导体出口管制政策的背景下, 设备和材料国产替代进入加速期。最后,以 ChatGPT 为代表的 AI 应用迅速发展,算力及 相关产品需求迎来快速增长,有望带来新一轮科技革命,给半导体行业带来新需求。

具体来看,今年以来半导体设备和材料、PCB、封测板块涨幅靠前。市场对今年晶圆厂资 本开支悲观预期有所修复,同时国产替代进入加速期,在相关公司订单、业绩等验证下, 半导体设备和材料板块表现较好。2023 年以来 PCB 行业库存持续去化,行业景气度处于 底部,在 AI 需求带动下,服务器 PCB 相关业务的公司涨幅表现较好。封测行业由于周期 相对靠前,在下游需求复苏预期下,有望率先迎来拐点,今年以来封测板块也表现较好。今年以来(截至 2023年4月 20 日),电子行业涨幅居前的个股分别为:佰维存储(502.9%)、 寒武纪(387.8%)、源杰科技(145.5%)等,涨幅靠后的个股分别为传艺科技(-38.5%)、联建光电(-35.7%)、激智科技(-34.9%)等。


海外方面,今年以来(截至 2023 年 4 月 20 日),费城半导体指数上涨 20.3%,台湾半导体指数上涨 15.8%,主要重点公司今年大多数录得正收益。

二、AI产业链空间广阔,大模型陆续推出

2.1、AI算力空间广阔

AI 算力需求主要来自于训练和推理两端。训练段的要求是保证模型的准确性,最大的消 耗在预训练阶段,目前开源模型较少,同时未来训练场景的扩大化,未来训练段所需算力 持续增长。在推理端,需要同时考量效率和精通,同样随着大模型渗透率的提升,未来使 用场景的多样化,算力需求持续增长。OpenAI 预计人工智能科学研究要想取得突破,所 需要消耗的计算资源每 3~4 个月就要翻一倍。

短期视角看服务器空间,预计训练端为主,需要 9.6 亿美元。1 台 A100 GPU 服务器 1 天 的理论算力约为 312TFlopsx8/1024=2.44PetaFlop/s-day,假设实际跑大模型训练时性能 发挥约为 40~50% , 即 实 际 算 力 约 为 1-1.2PetaFlop/s-day 。训练 GPT-3 需 要 3640PetaFlop/s-day,相当于 128 台 8 卡 A100 服务器训练 24 天(以 50%峰值效率换算)。我们假设未来五年推出 50 个以上大模型,对应需要 50*128 台服务器,目前 8 卡 A100 服 务器价格在 15 万美元,需要 9.6 亿美元服务器。远期视角看服务器空间,预计推理段为主,需要 1360 亿美元。据公司数据,GPT-3 如果 对应每月 6 亿次以上的访问需求,GPT-3 模型单月运营成本需要 4874 PetaFlop/s-day 算 力。假设远期看,未来全球每日有 50 亿活跃用户点击并发送交互信息,对应需要 731 万 张 A100 芯片,即 91 万台服务器,市场空间约 1360 亿美元。


2.2、下游大模型陆续推出,多场景实现落地应用

海外来看,目前参与者主要是微软、谷歌和近日在股东信中宣布布局大模型的亚马逊。1)GPT 模型:目前最新已推出大型多模态 GPT-4 模型,GPT-5 预计 23 年 Q4 推出。ChatGPT 是由 OpenAI 开发的一个人工智能聊天机器人程序,和其他语言模型不同, ChatGPT 是基于 Transformer 架构预训练的,这使得它具有更好的语言理解能力。2)谷歌大模型:2023 年 3 月 6 日,谷歌对其开发的 PaLM-E 多模态大模型的训练方法、 训练环境及通用化效果进行了详细阐述,目前仅具备通用化语言能力,还能执行视觉问答、 感知推理、机器操作等复杂的任务。具有 5620 亿参数。

国内来看,目前参与者主要是百度、360、商汤、阿里、腾讯等大型科技公司,各家厂商 都在加速推荐大模型多方位布局1)阿里“通义千问”:2022 年 9 月达摩院发布“通义”大模型系列,延续之前的 M6 项目,目前具备多轮对话、文案创作、逻辑推理、多模态理解和多语言支持等国内,逐步落 地在直播等多个应用领域,阿里在该部分是优势主要在于算法算力方面和 C 端丰富的数据, 目前提出以云为基础,以模型为中心的概念。2)百度“文心一言”:3 月 16 日百度发布国内第一个大模型“文心一言”,具备文学创作、 商业文案创作、数理逻辑推算、中文理解多模态生成能力。目前百度拥有国内最大的产业 级深度学习平台飞桨和完整业务生态版图,未来 AI 大模型有望与各垂直应用场景深度融 合,推出各类基于 AI 的产品服务。

3)商汤“日日新 SENSENOVA”:4 月 12 日商汤发布“日日新 SENSENOVA”大模型, 拥有 1800 亿参数和问答理解生成等全面的中文预研能力,在文献助手、问诊和编程表现 超预期,目前 7000 余张 GPU 卡已经对外服务超过 8 家大型客户,包含科研机构、商业 银行、游戏公司、互联网公司等。


三、AI服务器各环节梳理

3.1、服务器整机:AI服务器加速渗透,聚焦龙头发展路径

通常,通用服务器主要是 CPU 为主导的串行架构,而 AI 服务器主要采用异构形式,如 CPU+GPU、CPU+TPU、CPU+其他加速卡等形式。通用服务器中以搭载 2 颗 CPU 的配 置居多。AI 服务器一般搭载 1-2 颗 CPU,此外还配备 4 颗/8 颗 GPU。以浪潮 AI 服务器 NF5688M6(8 盘配置)为例,其主要配置及数量如下:CPU:2 x intel Ice Lake CPU , GPU:8 x NVDIA A800 GPU  内存:32 x DDR4 DIMM, SSD:8 x NVMe(16 盘配置为 16xSATA/SAS) RAID 卡:0(16 盘配置 1 个或 2 个) PCIe 卡:PCIe x16 卡 x10,PCIe x8 卡 x2(16 盘配置为 PCIe x16 卡 x6) 电源:6 x 3000W PSU(3+3 冗余).

根据集邦咨询,2022 年预估 AI 服务器出货量占整体服务器比重在 1%左右,2023 年在 ChatGPT 等应用加持下,AI 服务器出货量将进一步增长,预计 2022-2026 年复合增长率 将达 10.8%。全球来看,参考 IDC 的数据,浪潮信息以 20.2%的份额排名第一。中国市场 AI 服务器市 场集中度较高,2021 年上半年,浪潮信息占据 48.5%的市场份额,宁畅和华为分别位列 第二、第三。2022 年 AI 服务器采购中,北美四大云服务厂商占据前四位,微软、谷歌、Meta、亚马 逊 AWS 合计占比 66%。国内市场方面,字节跳动采购量靠前,2022 年采购占比达 6%, 紧随其后的是腾讯(2.3%)、阿里巴巴(1.5%)、百度(1.5%)。

3.2、算力芯片:服务器成本核心,国产厂商积极布局

AI 加速服务器整机中 50-80%的成本来自于算力芯片。目前加速服务器中的芯片以 CPU、 GPU 以及其他芯片为主。目前出货的 AI 服务器一般搭载 1-2 颗 CPU,以及 8 颗 GPU, 以浪潮 AI 服务器 NF5688M6 主要配置为例,其搭载 2 个 Intel CPU,8 个 NVDIA GPU。按照其售价和芯片成本,我们测算整机中 67%的成本来自于芯片端,结合不同服务器厂商 的不同方案下配置,整体 AI 服务器整机中 50-80%成本来自于芯片,是成本核心。

GPU 方案目前是加速服务器的主流方案。根据 IDC 数据,目前全球应用于加速服务器的 GPU 方案份额大于 85%,剩余的 NPU、ASIC、FPGA 等非 GPU 方案份额约为 15%。从 下游来看,目前互联网厂商是采购主力。1)GPU 方案:GPU 是图形处理器,专用于图形、视频等高性能计算。针对高强度并行 计算,GPU 相较 CPU 而言性能更具优势。目前 GPU 主要应用在图形加速和计算等方面, 在计算端,同时 CPU 搭配 GPU 异构,CPU 符合执行逻辑处理,GPU 负责计算大规模数据并行计算,可以理解为 CPU 的协处理器。从目前的产业生态来看,随英伟达推出 CUDA 后,不断降低开发门槛,CUDA 生态具有较高壁垒。从格局来看,目前 GPU 加速卡里英 伟达是全球绝对领导者,2021 年英伟达占有加速器市场 90%以上份额,目前服务器主流 方案搭配英伟达 V100/A100/ H100 等芯片。

2)非 GPU 方案:主要以 NPU、ASIC、FPGA 等芯片为主,其中 ASIC 和 FPGA 各有特 点。FPGA 灵活性强,功耗低,ASIC 针对性强。我们觉得未来 FPGA 适用于部分对灵活 性要求高快速变化的场景,后续随 AI 逐步发展,FPGA 特性将凸显,未来在服务器中份 额占比会逐步扩大,未来国内厂商产品有望在推理段实现逐步替代。

海外禁售推进国产替代加速。2022 年下半年,美国新增了 3A090 针对高性能芯片的出口 管制规定,限制了 I/O 传输速率在 600Gbyte/s 以上或者“数字处理单元+原始计算单元” 算力和在 4800TOPS 以上的芯片,该项规定限制了英伟达 A100 和 H100 芯片对中国等出 口。目前产业趋势来看,随下游大模型陆续推出,AI 算力需求迅速增加,高算力 GPU 的 国产化推进进程加速。国内企业处于追赶阶段,目前国内 GPU 产品在诸多方面与海外仍有差距。目前国内 GPU 加速计算公司主要有海光信息、寒武纪、景嘉微、壁仞科技等,从硬件端来看,大致与海 外产品有一代以上的差距,从软件端生态来看,国内公司的软件与英伟达 CUDA 生态差 距较大,突破更为不易。但从目前产品迭代进展已经产业链进程来看,国内厂商处于加速 追赶的状态,高算力 GPU 国产化会逐步上升。

3.3、光模块:高速产品迎商用元年,龙头供应商弹性可期

光模块是一种用于数据传输的光器件,其功能是实现光信号和电信号之间的相互转换,从 而实现数据的传输,下游应用主要包括电信领域和数通领域。训练大型语言模型所需的计 算资源不断增加,这些计算资源需要通过网络连接到训练模型的服务器上,对光模块要求 提高,同时拉动光模块需求。根据 Yole,2020 年全球光模块市场规模约 96 亿美元,其中数通市场约 53 亿美元,电信 市场 43 亿美元。预计到 2026 年全球光模块市场将达到 209 亿美元,其中数通市场复合 增速最快,数通市场以 19%的复合增速将达到 151 亿美元。

2022 年是 800G 光模块商用的元年,2023 年 800G 光模块全球出货量增速进一步上扬。随着 AI 等新技术不断发展,网络流量长期保持持续增长,相关光模块需求也将保持较快 增长并不断迭代升级。国内光模块厂商在全球具有重要市场地位,市场份额有望持续提升。Lightcounting 在 2021 年发布的光模块厂商排名中,中际旭创位居全球第二。另外,Omdia 的数据也显示, 中际旭创 2021 年的市场份额位居全球第二,约为 10%,光迅科技市场份额为 8%,居全 球第四。

3.4、PCB:量价共振促成长,先发企业持续受益

服务器为 PCB 重要下游,算力革命下加速发展。服务器作为算力核心的载体和传输的硬 件,在 AI 变革大背景下用量急速提升,同时向高速、大容量、强性能换代趋势明显。服 务器以网卡、主板为代表的诸多核心部分均需使用 PCB,根据 Prismark 统计及预测,2021 年服务器用 PCB 产值约 78.12 亿美金,占 PCB 行业下游的 9.7%,预计 2021-2026 年服 务器 PCB 市场 CAGR 约 10%,为 PCB 下游增速最快的领域。

用量方面:服务器中电源背板、网卡、主板、硬盘背板和 Riser 卡中都要用到 PCB,主板 的 1 个 PCB 板为标配,在服务器 PCB 中价值占比最高;网卡、光驱、前置背板、VGA 板、RAID 控制卡中均需要使用 1 个 PCB 板,光模块中一般需要 2 个,硬盘中需要 3 个, 内存卡则需使用 20-30 个,加总每台服务器中 PCB 用量为 30-40 个。

价值量方面:根据 Prismark 数据,目前服务器市场中多采用 6 层板和 8-16 层板,合计份 额占 46.88%。根据 ITEQ,随 Intel 服务器平台由 Whitley 升级至 Eagle Stream 以及 AMD 服务器由 Zen3 升级至 Zen4,其使用的 PCB 层数将相应从 12-16 层升到 16-20 层;AI 服务器则在数据传输速度和效率方面比普通服务器要求更高,以 OpenAI 的 AI 服务器为例,其 PCB 层数高达 20-28 层不等。Prismark 统计,2021 年 8-16 层 PCB 板每平方米 价格约 456 美金,18 层以上每平方将达 1538 美金,预计 PCB 每提一层,价值量提升 1000 元左右,因此 AI 服务器价值量可数倍于普通服务器。

根据 IDC、集邦咨询、Prismark 数据,2020-2026 年全球服务器出货量有望从 1220 万台 增长至超 1600 万台,假设中国服务器出货量增速高于全球,且 PCIe 5.0 与 AI 服务器加 速渗透,我们测算至 2023 年全球 PCB 市场空间有望超百亿美元,至 2025 年市场规模有 望超 150 亿美元。

市场格局看,全球 PCB 市场玩家众多,集中度不高。根据各公司 2021 年营收计算其市 占率,PCB 市场中 CR10 约 35.55%,前二分别为中国台湾企业臻鼎科技、欣兴电子,中 国大陆厂商东山精密、深南电路分列前十中的第 3、8 名,市占率分别为 3.96%和 2.69%。一些公司已对服务器 PCB 有所布局,大陆厂商中以深南电路、沪电股份、景旺电子、胜 宏科技、奥士康等为代表,假设服务器 PCB 分别占其 PCB 应用的 15%、15%、8.5%、 10%和 18%,以 2021 年全球服务器市场规模约 78 亿美元为基数,以汇率 1 美元=6.5 元 人民币估算每家公司市占率,则分别为:4.12%、2.19%、1.60%、1.47%、1.57%,累计 市占率达 10.95%,国产替代空间广阔。

3.5、HBM存储:国内空白亟待填补,海力士合作商有望跟随成长

HBM(High Bandwidth Memory)意为高带宽内存,是高性能的 CPU/GPU 核心组件。以 ChatGPT 为代表的 AI 大模型需要使用海量数据进行训练,对数据和带宽的要求不断提 高,大容量服务器 DRAM 和高带宽内存 HBM 可有助于解决日益突出的存算失配问题。HBM 将多个 DDR 芯片堆叠并和 GPU 封装在一起,是一种基于 3D 堆叠工艺的高价值量 DRAM 存储器,并用多根数据线实现高吞吐高带宽特性,例如 HBM/HBM2 用 1024 根数 据线传输数据,而 GDDR/DDR 仅用 32/ 64 根。此外 HBM 堆栈不以外部互连线的方式与 信号处理器芯片连接,而是使用额外的硅联通层和晶片堆叠技术,内部的不同 DRAM 则 采用 TSV 实现信号纵向连接。因此,HBM 每瓦带宽比 GDDR5 高出 3 倍多,表面积相对 DDR5 可以节省 94%,在内存的功耗效率上表现优异。

HBM 是图形 DDR 的一种,高带宽特性可适用于 AI 计算等应用。DRAM 按应用场景可分 为标准 DDR、移动 DDR、图形 DDR 三种。其中标准型 DDR 需要和 CPU 成套使用,可 用于服务器、云计算、网络、笔记本电脑、台式机等;而移动 DDR/LPDDR 功耗较低, 较适用于移动和车载;图形 DDR 则包括 GDDR 和 HBM,针对对带宽要求较高的应用如 AI 计算、区块链等。目前 HBM2 每个堆栈可支持最多 1024 个 pin,以每 pin 传输速率 2000 MB/s 计算则单颗粒总带宽是 256 GB/s,而 GDDR6 单颗粒带宽只有 64 GB/s,是 HBM 的 1/4,DDR4 3200 则仅为 HBM 的 1/10。

HBM 市场中三星、海力士具备相当的先发优势,目前最新一代产品为 HBM3。1)SK 海力士:与AMD共同开发堆叠内存HBM,2013年成功将TSV技术应用于DRAM, 首次成功研发出 HBM,并于 2014 年推出第一代 HBM 产品;2015 年 AMD 将其用在 Fury 系列显卡上,标志着第一代 HBM 首次商用;2018 年发布 HBM2;2020 年成功 研发新一代 HBM 2E;2021 年 10 月发布全球首款 HBM3,由 12 个 DRAM 堆叠而成, 容量可达第三代产品 HBM 2E 的 1.5 倍,运行速度则是其 2 倍;2022 年 6 月宣布量 产 HBM3,供货英伟达,与 H100 GPU 搭配实现加速运算;目前 HBM4 在研。

2)三星:2016 年量产第一个产品 4GB HBM2,同年生产 8GB HBM2;2018 年量产第二代 8GB HBM2;2020 年推出 16GB HBM 2E;2021 年 2 月推出 HBM-PIM/存算一体, 将 AI 计算能力引入高性能内存;2022 年 HBM3 已成功量产,单芯片接口宽度可达 1024bits,接口传输速率可达 6.4Gbps。3)美光:起步较晚,2020 年宣布将开始供应 HBM2 用于高性能显卡及服务器处理器产 品;2021 年 HBM 2E 上市,新品加速规划中。

3.6、RAID卡:美商份额高企,看好国芯科、华澜微打破垄断

网络存储结构分为 3 种:直连式存储 DAS、网络存储设备 NAS 和存储网络 SAN。其中 DAS 通过电缆直接连接服务器,数据读写请求直接发送到存储设备,一般应用在中小企 业;NAS 按照 TCP/IP 协议进行通信,是一种与网络上的存储设备直接相连从而实现数据 存储的机制。由于存储设备都分配有 IP 地址,因此可通过数据网关对数据进行存取访问, 一般应用在中大型企业;SAN 是存储设备相互连接且与至少一台服务器或一个服务器群 相连组成的网络,是通过光纤集线器、光纤路由器、光纤交换机等连接设备将磁盘阵列、 磁带等存储设备与相关服务器连接起来的高速专用数据存储网络,一般应用在超大企业。

网络存储协议主要通过服务器搭载各类板卡来交互,是实现存储网络的关键设备。数据阵 列相关的板卡产品具体如下:RAID 指独立冗余硬盘阵列,即将多个独立的硬盘组合成一个硬盘组,并虚拟成单个大容 量硬盘(逻辑硬盘)的技术和方法,从而提供比单个硬盘更高的存储性能和容错能力。随 信息增加带来数据量成倍增长,硬盘单盘容量已升到 TB 级别,但单块磁盘的存储容量与 速度仍无法满足应用需求,磁盘阵列应运而生。磁盘阵列把相同的数据存储在多个硬盘中, 输入输出操作以平衡的方式交叠进行,磁盘性能得以改善,RAID 作为高性能、高可靠的 存储技术因而得到了广泛使用。

市场格局:全球来看,除基础接口(I/O)型号产品有少量中国台湾 JMicron 提供外,大 数据硬盘阵列控制器芯片主要由美国博通和微芯提供,系企业应用领域必备产品,国内尚 无同类国产化大数据硬盘阵列控制器芯片。一般每台服务器配置 1 块 HBA 或 RAID 芯片 和若干块 Expander 芯片。目前存储网络领域逐渐扩展到光纤、存储控制和以太网等通信 技术,国内光纤系统和交换系统等硬件资源众多,政策助推下加速发力大数据产业基地, 预计未来 RAID 国产替代空间可观。

3.7、服务器电源:行业壁垒高,关注国内市场领头羊

服务器电源主要用在数据中心场景中,主要应用于服务器、存储器等设备。根据华经产业 研究院,2021 年全球服务器电源市场规模为 203 亿元,中国市场规模为 59 亿元。AI、数 据中心投入加大,将继续推动服务器电源市场增长。服务器电源市场进入壁垒高,认证周期长,中国台湾厂商占据主要市场份额,台达、光宝、 艾默生等长期占据主要份额。

3.8、接口芯片:高速、换代趋势显著,技术与产品助力国产品牌破局

内存接口芯片(用于 CPU 和内存模组互联):内存接口芯片是服务器内存模组的核心逻辑 器件,作为服务器 CPU 存取内存数据的必由通路,其主要作用是提升内存数据访问的速 度及稳定性,满足服务器 CPU 对内存模组日益增长的高性能及大容量需求。全球内存接 口芯片行业进入壁垒高,市场竞争格局稳定,目前主要厂商共有三家,分别为澜起科技、 IDT 和 Rambus。PCIe Retimer(用于 CPU 和 GPU 互联):PCIe Retimer 芯片是适用于 PCIe 高速数据传 输协议的超高速时序整合芯片,主要用来解决数据中心数据高速、远距离传输时,信号时 序不齐、损耗大、完整性差等问题,多应用于 NVMe SSD、AI 服务器、Riser 卡等典型应 用场景。PCIe Switch:用于联接 CPU、GPU、NVMe SSD、网卡等。

NVSwitch(GPU 和 GPU 互联):NVSwitch 芯片通过 NVLink 技术可以将多个 GPU 高速 互联到一起,第四代 NVLink 技术下,单个 H100 GPU 卡可支持 18 个 NVLink 链路,总 带宽可达 900GB/s,提升服务器内部多个 GPU 之间的通讯效率和带宽。


四、重点企业分析

浪潮信息:浪潮信息是全球领先的 IT 基础架构产品、方案及服务提供商,业务覆盖计算、 存储、网络三大关键领域,提供云计算、大数据、人工智能、边缘计算等在内的全方位数 字化解决方案。根据 IDC,2021 年上半年浪潮在全球 AI 服务器全球市场份额 20.2%,全 球第一,中国市场份额接近 50%。

工业富联:公司是全球领先的高端智能制造及工业互联网解决方案服务商,主要业务包含 云计算、通信及移动网络设备、工业互联网。公司多年来为数家第一梯队云服务商 AI 服 务器(加速器)与 AI 存储器供应商,产品已经开发至第四代。伴随着 AI 硬件市场迅速成 长,公司相关产品 2022 年出货加倍,AI 服务器及 HPC 出货增长迅速,在 2022 年云服务 商产品中,占比增至约 20%,持续维持增长态势。算力时代的开启为高效 AI 服务器提供 了更广阔的发展空间,新产品将在 2023 年陆续研发推出.

寒武纪:公司专注于人工智能芯片产品的研发与技术创新,主营业务是各类云服务器、边 缘计算设备、终端设备中人工智能核心芯片的研发、设计和销售,主要产品为云端智能芯 片及加速卡、训练整机、边缘智能芯片及加速卡、终端智能处理器 IP 以及上述产品的配 套软件开发平台。


海光信息:海光 DCU 兼容“类 CUDA”环境,具有强大的计算能力、高速并行数据处理 能力和良好的软件生态环境等优势。海光 DCU 基于大规模并行计算微结构进行设计,不 但具备强大的双精度浮点计算能力,同时在单精度、半精度、整型计算方面表现同样优异。海光 DCU 集成片上高带宽内存芯片,可以在大规模数据计算过程中提供优异的数据处理 能力,使海光 DCU 可以适用于广泛的应用场景。海光 DCU 采用 GPGPU 架构,兼容 “类 CUDA”环境,解决了产品推广过程中的软件生态兼容性问题。公司通过参与开源 软件项目,加快了公司产品的推广速度,并实现与 GPGPU 主流开发平台的兼容。

中际旭创:中际旭创集高端光通信收发模块的研发、设计、封装、测试和销售于一体,为 云数据中心客户提供 100G、200G、400G 和 800G 等高速光模块。根据 Lightcounting, 2021 年中际旭创在光模块厂商排名中位居全球第二。

天孚通信:公司定位光器件整体解决方案提供商,深耕光器件领域多年,始终聚焦光器件 平台产品,在精密陶瓷、工程塑料、复合金属、光学玻璃等基础材料领域积累沉淀了多项 全球领先的工艺技术,致力于各类中高速光器件产品的研发、生产及销售。一方面,持续 为光通信板块客户提供高质量产品和服务,另一方面充分利用激光雷达和光通信用光器件 的技术复用性,成功开拓激光雷达市场并实现量产交付。

源杰科技:主营光芯片的研发、设计、生产与销售,主要产品包括 2.5G、10G、25G 及 更高速率激光器芯片系列产品等,目前主要应用于光纤接入、4G/5G 移动通信网络和数据 中心等领域。25G 及更高速率激光器芯片市场国产化率低,公司凭借核心技术及 IDM 模 式,率先攻克技术难关、打破国外垄断,并实现 25G 激光器芯片系列产品的大批量供货。

沪电股份:专注数通领域高端 PCB。2010 年上市时背板最高可达 56 层,线板最高达 32 层,HDI 板最高可达 24 层,厚铜最高铜厚可达 120Z,均高于国内技术标准。目前次世代 服务器平台 PCB、高阶数据中心交换机 PCB 中用于 400G 交换机的产品已批量生产,用 于 Pre800G 交换机的产品已完成技术测试和小批量生产,基于 112G 交换芯片的 800G 交换机产品正在开发测试;基于 PCIE 5.0 接口和 200/400G 端口的高阶智能网卡产品已 进入样品打样阶段,单通道 112Gpbs 相关工艺技术已开发完成,并对基于硅光新架构下 PCB 的可靠性技术开展技术储备。

深南电路:从事高中端 PCB 的设计、研发及制造,下游应用以通信设备为核心,重点布 局数据中心(含服务器)、汽车电子、工控、医疗等领域。目前拥有用于交换机、服务器/ 存储设备的背板和高速多层板,相关产品已进入联想、希捷等大客户,数据中心 PCB 业 务目前以 Whitley 平台服务器用 PCB 为主流产品,已配合客户完成新一代 Eagle Stream 平台服务器用 PCB 研发样品,现已具备批量生产能力。

景旺电子:PCB 产品主要应用于服务器的主板及配板、存储模组等,已实现对国内主流 客户的批量供货,并与国内外客户在云计算、边缘计算领域进行配套研发,16 层以上的 PCB 产品已通过客户认证,可用于使用 PCIe5.0 的 Eagle Stream 服务器平台,用于超算 服务器和云服务器的 PCB 板已向客户出货。同时,公司通过加强自身技术研发、积极配 合客户新产品试样、延伸下游产业链(建立 SMT 贴装线)等方式提升主动服务客户能力, 业务关系稳定。

胜宏科技:显卡用 PCB 板龙头,客户包括亚马逊、微软、思科、 Facebook、谷歌、三 星、英特尔、英伟达、AMD、戴尔、华硕、日立、SKY 等国内外知名品牌。公司为 CPCA 副理事长单位,是行业标准的制定单位之一,位居中国印制电路行业企业百强排行榜内资 第 4 名,全球第 21 名。主要产品包括双层板、四层以上多层板、HDI 板等,部分 PCB 产 品已向下游服务器相关领域客户供货,服务器在 PCB 下游应用中占比近 10%。

通富微电:先进封测行业龙头,目前有 Bumping、WLCSP、FC、BGA、SiP 等先进封测 技术,QFN、QFP、SO 等传统封装技术及汽车电子产品、MEMS 等封装技术;测试技术 包括圆片测试、系统测试等。芯思想研究院显示,2022 年公司在全球前十大封测企业中 市占率增幅第一,首次进入全球 4 强。公司 21 年量产国内最先进的 2.5D/3D 先进封装, 可实现国内应用于 HBM 高性能封装技术领域的突破;截至 22H1,2.5D/3D 先进封装平台 BVR 技术通线并完成客户首批产品验证,2 层芯片堆叠的 CoW 技术完成技术验证。

深科技:主要从事 DRAM、NAND、FLASH 及嵌入式存储芯片的封装与测试,包括 DDR3、 LPDDR3、DDR4、LPDDR4、DDR5、LPDDR5、eMCP4、eMMC 等。公司具备精湛的 多层堆叠封装工艺能力,定增募资 14.62 亿元用于存储先进封测与模组制造项目,已通过 现有客户封装产品大规模量产审核,未来将持续加码 Flip-chip、POPt 堆叠封装技术的研 发、16 层超薄芯片堆叠技术的优化,积极布局 Fan out、2.5D、SiP 等高端封测。

国芯科技:已成功研制了 RAID 控制芯片,采用国芯 32 位 PowerPC 架构 CPU 核 C8000 和 32 位 M*Core 指令架构 CPU 核 C0 组成的异构多核处理器,集成高性能 RAID 算法引 擎,具有 DDR3、PCIe2.0、SATA2.0 等接口,对标 LSI 的 SAS2208,具有高性能、大缓 存、低功耗等特点,广泛应用于图形工作站、服务器数据库存储、金融数据库存储等领域。第一代量产版 RAID 芯片已正式投片,第二代 RAID 芯片将采用 12nm 先进制程和高性能 高速接口 IP 技术,目前已处于设计阶段。

华澜微:数据存储解决方案提供商,主要产品包括存储模组、存储控制器芯片及服务、存 储系统及应用。公司自主研发和产业化了基于多核异构 SoC 架构体系的 iRAID 架构和 eRAID 架构,新品大数据硬盘阵列控制器芯片 RAID 控制器 INIC8721 在研,此类芯片生 产的阵列卡由美国博通和微芯所垄断,量产后将填补我国在大数据硬盘阵列控制器芯片方 面的空缺。

欧陆通:公司深耕于电源行业,公司的服务器电源覆盖 60w 到 30kw 瓦数段,产品包括风 冷、浸没式液冷在内的两大类电源产品及解决方案,可应用于数据中心的边缘计算服务器 及人工智能服务器、存储器、交换机、5G 微基站等,已经成为包括富士康、星网锐捷、 新华三等在内的多家头部企业的供应商。2022 年,公司服务器电源业务进入高速发展期, 销售收入同比大幅增长 106.94%,延续高速增长态势,已成为公司第二大业务板块。

中国长城:公司是作为国内计算机电源、服务器电源研发制造商,多年雄踞国内市场占有 率领先品牌,拥有专业电源技术研发团队,是电源国家标准主要起草单位之一,自主研发 超高性能数据中心服务器电源,为全球知名的超级计算机配套,公司服务器电源产品国内 市占率第一。

澜起科技:公司是全球内存接口芯片的主要供应商之一,凭借领先的技术水平,在 DDR4 阶段逐步确立了行业领先优势。澜起科技发明了 DDR4 全缓冲“1+9”架构,最终被 JEDEC 国际标准采纳。目前公司核心产品广泛应用于各类服务器,直接服务于 DRAM 市场中的 主要参与者,终端客户涵盖众多知名的国内外互联网企业及服务器厂商。此外,2023 年 1 月公司 PCIe 5.0 Retimer 芯片成功实现量产。

聚辰股份:公司与澜起科技合作开发配套新一代 DDR5 内存条的 SPD 产品,该产品系列 内置 SPD EEPROM,用于存储内存模组的相关信息以及模组上内存颗粒和相关器件的所 有配置参数,主要应用于个人电脑领域以及服务器领域的内存模组。在 DDR5 内存技术商 用的驱动下,应用于 DDR5 内存模组的 SPD 产品需求量迅速增长。

裕太微:公司是中国大陆极少数拥有自主知识产权并实现大规模销售的以太网物理层芯片 供应商,可满足信息通讯、汽车电子、消费电子、监控设备、工业控制等多个领域的需求, 公司产品已成功进入普联、盛科通信、新华三、海康威视、汇川技术、诺瓦星云、烽火通 信、大华股份等国内众多知名企业的供应链体系。

龙迅股份:公司是一家专注于高速混合信号芯片研发和销售的集成电路设计企业,主要产 品有高清视频桥接及处理芯片与高速信号传输芯片。公司基于单通道 12.5Gbps SERDES 技术研发的通用高速信号延长芯片已在 5G 通信领域实现国产化应用。




​​​​第六期“全国移动机器人行业巡回调研活动”合作商招募中

​报名热线:400-0756-518​​​​

活动时间:2023-09-01至11-30

  • 展会回顾|合肥搬易通(MiMA)长沙与重庆智能装备展精彩回顾
  • 案例 | 跨楼层衔接多工序,未来机器人加速印刷制造企业转型升级
  • 海豚之星AiTEN丨CeMAT Asia 2024 创新驱动,圆满收官
  • 智行视界 | 海康机器人在2024全国巡回交流会首站,他们这样讲
  • 牧星AMR助力中国知名跨境电商企业打造超级工厂
  • 高仙亮相荷兰Interclean阿姆斯特丹国际清洁展
  • 河南省委常委、郑州市委书记安伟调研郑州领航机器人有限公司:鼓励企业研发创新,推动经济高质量发展
  • 持续引领日本市场:快仓再登亚洲无缝物流展会2024