​​​​​​​智能装备行业门户网
品牌 活动 访谈】  50强   整机 ​【联盟】 机构 【视界 展会 招聘 云服务   微博     关注公众号
咨询热线400-0756-518
今日焦点
​​​金陵智造AGV舵轮
智慧物流,移动机器人全媒体,为更有效传播
​​​INEWS / 新闻中心
半导体行业中期策略:AI变革掀科技革命,服务器领航复苏征程
来源:西部证券 | 作者:西部证券 | 发布时间: 765天前 | 6667 次浏览 | 分享到:
今年以来,(截至 4 月 20 日),电子行业上涨 19.30%,在 31 个申万一级行业中排名第 5。2023 年以来,一方面随着疫情政策调整,生产生活秩序加快恢复,电子部分下游细分领 域出现需求复苏迹象,叠加部分芯片设计公司库存改善,半导体设计公司基本面拐点临近, 市场交易逐渐围绕疫后经济恢复和行业拐点展开。另一方面,2023 年国内晶圆厂资本开 支好于之前悲观预期,设备订单有望修复,在美国、日本半导体出口管制政策的背景下, 设备和材料国产替代进入加速期。最后,以 ChatGPT 为代表的 AI 应用迅速发展,算力及 相关产品需求迎来快速增长,有望带来新一轮科技革命,给半导体行业带来新需求。

一、2023年电子行业投资复盘

今年以来,(截至 4 月 20 日),电子行业上涨 19.30%,在 31 个申万一级行业中排名第 5。2023 年以来,一方面随着疫情政策调整,生产生活秩序加快恢复,电子部分下游细分领 域出现需求复苏迹象,叠加部分芯片设计公司库存改善,半导体设计公司基本面拐点临近, 市场交易逐渐围绕疫后经济恢复和行业拐点展开。另一方面,2023 年国内晶圆厂资本开 支好于之前悲观预期,设备订单有望修复,在美国、日本半导体出口管制政策的背景下, 设备和材料国产替代进入加速期。最后,以 ChatGPT 为代表的 AI 应用迅速发展,算力及 相关产品需求迎来快速增长,有望带来新一轮科技革命,给半导体行业带来新需求。

具体来看,今年以来半导体设备和材料、PCB、封测板块涨幅靠前。市场对今年晶圆厂资 本开支悲观预期有所修复,同时国产替代进入加速期,在相关公司订单、业绩等验证下, 半导体设备和材料板块表现较好。2023 年以来 PCB 行业库存持续去化,行业景气度处于 底部,在 AI 需求带动下,服务器 PCB 相关业务的公司涨幅表现较好。封测行业由于周期 相对靠前,在下游需求复苏预期下,有望率先迎来拐点,今年以来封测板块也表现较好。今年以来(截至 2023年4月 20 日),电子行业涨幅居前的个股分别为:佰维存储(502.9%)、 寒武纪(387.8%)、源杰科技(145.5%)等,涨幅靠后的个股分别为传艺科技(-38.5%)、联建光电(-35.7%)、激智科技(-34.9%)等。


海外方面,今年以来(截至 2023 年 4 月 20 日),费城半导体指数上涨 20.3%,台湾半导体指数上涨 15.8%,主要重点公司今年大多数录得正收益。

二、AI产业链空间广阔,大模型陆续推出

2.1、AI算力空间广阔

AI 算力需求主要来自于训练和推理两端。训练段的要求是保证模型的准确性,最大的消 耗在预训练阶段,目前开源模型较少,同时未来训练场景的扩大化,未来训练段所需算力 持续增长。在推理端,需要同时考量效率和精通,同样随着大模型渗透率的提升,未来使 用场景的多样化,算力需求持续增长。OpenAI 预计人工智能科学研究要想取得突破,所 需要消耗的计算资源每 3~4 个月就要翻一倍。

短期视角看服务器空间,预计训练端为主,需要 9.6 亿美元。1 台 A100 GPU 服务器 1 天 的理论算力约为 312TFlopsx8/1024=2.44PetaFlop/s-day,假设实际跑大模型训练时性能 发挥约为 40~50% , 即 实 际 算 力 约 为 1-1.2PetaFlop/s-day 。训练 GPT-3 需 要 3640PetaFlop/s-day,相当于 128 台 8 卡 A100 服务器训练 24 天(以 50%峰值效率换算)。我们假设未来五年推出 50 个以上大模型,对应需要 50*128 台服务器,目前 8 卡 A100 服 务器价格在 15 万美元,需要 9.6 亿美元服务器。远期视角看服务器空间,预计推理段为主,需要 1360 亿美元。据公司数据,GPT-3 如果 对应每月 6 亿次以上的访问需求,GPT-3 模型单月运营成本需要 4874 PetaFlop/s-day 算 力。假设远期看,未来全球每日有 50 亿活跃用户点击并发送交互信息,对应需要 731 万 张 A100 芯片,即 91 万台服务器,市场空间约 1360 亿美元。


2.2、下游大模型陆续推出,多场景实现落地应用

海外来看,目前参与者主要是微软、谷歌和近日在股东信中宣布布局大模型的亚马逊。1)GPT 模型:目前最新已推出大型多模态 GPT-4 模型,GPT-5 预计 23 年 Q4 推出。ChatGPT 是由 OpenAI 开发的一个人工智能聊天机器人程序,和其他语言模型不同, ChatGPT 是基于 Transformer 架构预训练的,这使得它具有更好的语言理解能力。2)谷歌大模型:2023 年 3 月 6 日,谷歌对其开发的 PaLM-E 多模态大模型的训练方法、 训练环境及通用化效果进行了详细阐述,目前仅具备通用化语言能力,还能执行视觉问答、 感知推理、机器操作等复杂的任务。具有 5620 亿参数。

国内来看,目前参与者主要是百度、360、商汤、阿里、腾讯等大型科技公司,各家厂商 都在加速推荐大模型多方位布局1)阿里“通义千问”:2022 年 9 月达摩院发布“通义”大模型系列,延续之前的 M6 项目,目前具备多轮对话、文案创作、逻辑推理、多模态理解和多语言支持等国内,逐步落 地在直播等多个应用领域,阿里在该部分是优势主要在于算法算力方面和 C 端丰富的数据, 目前提出以云为基础,以模型为中心的概念。2)百度“文心一言”:3 月 16 日百度发布国内第一个大模型“文心一言”,具备文学创作、 商业文案创作、数理逻辑推算、中文理解多模态生成能力。目前百度拥有国内最大的产业 级深度学习平台飞桨和完整业务生态版图,未来 AI 大模型有望与各垂直应用场景深度融 合,推出各类基于 AI 的产品服务。

3)商汤“日日新 SENSENOVA”:4 月 12 日商汤发布“日日新 SENSENOVA”大模型, 拥有 1800 亿参数和问答理解生成等全面的中文预研能力,在文献助手、问诊和编程表现 超预期,目前 7000 余张 GPU 卡已经对外服务超过 8 家大型客户,包含科研机构、商业 银行、游戏公司、互联网公司等。


三、AI服务器各环节梳理

3.1、服务器整机:AI服务器加速渗透,聚焦龙头发展路径

通常,通用服务器主要是 CPU 为主导的串行架构,而 AI 服务器主要采用异构形式,如 CPU+GPU、CPU+TPU、CPU+其他加速卡等形式。通用服务器中以搭载 2 颗 CPU 的配 置居多。AI 服务器一般搭载 1-2 颗 CPU,此外还配备 4 颗/8 颗 GPU。以浪潮 AI 服务器 NF5688M6(8 盘配置)为例,其主要配置及数量如下:CPU:2 x intel Ice Lake CPU , GPU:8 x NVDIA A800 GPU  内存:32 x DDR4 DIMM, SSD:8 x NVMe(16 盘配置为 16xSATA/SAS) RAID 卡:0(16 盘配置 1 个或 2 个) PCIe 卡:PCIe x16 卡 x10,PCIe x8 卡 x2(16 盘配置为 PCIe x16 卡 x6) 电源:6 x 3000W PSU(3+3 冗余).

根据集邦咨询,2022 年预估 AI 服务器出货量占整体服务器比重在 1%左右,2023 年在 ChatGPT 等应用加持下,AI 服务器出货量将进一步增长,预计 2022-2026 年复合增长率 将达 10.8%。全球来看,参考 IDC 的数据,浪潮信息以 20.2%的份额排名第一。中国市场 AI 服务器市 场集中度较高,2021 年上半年,浪潮信息占据 48.5%的市场份额,宁畅和华为分别位列 第二、第三。2022 年 AI 服务器采购中,北美四大云服务厂商占据前四位,微软、谷歌、Meta、亚马 逊 AWS 合计占比 66%。国内市场方面,字节跳动采购量靠前,2022 年采购占比达 6%, 紧随其后的是腾讯(2.3%)、阿里巴巴(1.5%)、百度(1.5%)。

3.2、算力芯片:服务器成本核心,国产厂商积极布局

AI 加速服务器整机中 50-80%的成本来自于算力芯片。目前加速服务器中的芯片以 CPU、 GPU 以及其他芯片为主。目前出货的 AI 服务器一般搭载 1-2 颗 CPU,以及 8 颗 GPU, 以浪潮 AI 服务器 NF5688M6 主要配置为例,其搭载 2 个 Intel CPU,8 个 NVDIA GPU。按照其售价和芯片成本,我们测算整机中 67%的成本来自于芯片端,结合不同服务器厂商 的不同方案下配置,整体 AI 服务器整机中 50-80%成本来自于芯片,是成本核心。

联系我们:135-1272-6426    188-0319-7535

座机:0319-7596975