[行业新闻] 具身智能产品已商业化落地,市场或达9731......
2025-04-30
[行业新闻] 京东物流智狼出海!首次亮相韩国首尔物流仓储......
2025-04-28
[行业新闻] 开仓即满仓!京东物流连开韩国仁川、利川两大......
2025-04-25
[行业新闻] 里工荣登“人形机器人与具身智能最具投资价值......
2025-04-24
[行业新闻] 全厂(物流)!顺力智能亮相东莞市人工智能产......
2025-04-24
2025-04-23
2025-04-23
[行业新闻] 济南:起步区2026年部署无人快递车100......
2025-04-23
[行业新闻] 唯一中国企业!京东物流斩获中国电子学会自然......
2025-04-22
2025-04-22
[518原创] 518智能装备在线走访蚂蚁侠科技,共......
2025-04-30
[518原创] 盛况直击|镭神智能激光雷达闪耀FAI......
2025-04-26
[518原创] 首届机器人全产业链接会(FAIRpl......
2025-04-26
[518原创] 【4月25日论坛】海康机器人、寻迹智......
2025-04-25
3)商汤“日日新 SENSENOVA”:4 月 12 日商汤发布“日日新 SENSENOVA”大模型, 拥有 1800 亿参数和问答理解生成等全面的中文预研能力,在文献助手、问诊和编程表现 超预期,目前 7000 余张 GPU 卡已经对外服务超过 8 家大型客户,包含科研机构、商业 银行、游戏公司、互联网公司等。
三、AI服务器各环节梳理
3.1、服务器整机:AI服务器加速渗透,聚焦龙头发展路径
通常,通用服务器主要是 CPU 为主导的串行架构,而 AI 服务器主要采用异构形式,如 CPU+GPU、CPU+TPU、CPU+其他加速卡等形式。通用服务器中以搭载 2 颗 CPU 的配 置居多。AI 服务器一般搭载 1-2 颗 CPU,此外还配备 4 颗/8 颗 GPU。以浪潮 AI 服务器 NF5688M6(8 盘配置)为例,其主要配置及数量如下:CPU:2 x intel Ice Lake CPU , GPU:8 x NVDIA A800 GPU 内存:32 x DDR4 DIMM, SSD:8 x NVMe(16 盘配置为 16xSATA/SAS) RAID 卡:0(16 盘配置 1 个或 2 个) PCIe 卡:PCIe x16 卡 x10,PCIe x8 卡 x2(16 盘配置为 PCIe x16 卡 x6) 电源:6 x 3000W PSU(3+3 冗余).
根据集邦咨询,2022 年预估 AI 服务器出货量占整体服务器比重在 1%左右,2023 年在 ChatGPT 等应用加持下,AI 服务器出货量将进一步增长,预计 2022-2026 年复合增长率 将达 10.8%。全球来看,参考 IDC 的数据,浪潮信息以 20.2%的份额排名第一。中国市场 AI 服务器市 场集中度较高,2021 年上半年,浪潮信息占据 48.5%的市场份额,宁畅和华为分别位列 第二、第三。2022 年 AI 服务器采购中,北美四大云服务厂商占据前四位,微软、谷歌、Meta、亚马 逊 AWS 合计占比 66%。国内市场方面,字节跳动采购量靠前,2022 年采购占比达 6%, 紧随其后的是腾讯(2.3%)、阿里巴巴(1.5%)、百度(1.5%)。
3.2、算力芯片:服务器成本核心,国产厂商积极布局
AI 加速服务器整机中 50-80%的成本来自于算力芯片。目前加速服务器中的芯片以 CPU、 GPU 以及其他芯片为主。目前出货的 AI 服务器一般搭载 1-2 颗 CPU,以及 8 颗 GPU, 以浪潮 AI 服务器 NF5688M6 主要配置为例,其搭载 2 个 Intel CPU,8 个 NVDIA GPU。按照其售价和芯片成本,我们测算整机中 67%的成本来自于芯片端,结合不同服务器厂商 的不同方案下配置,整体 AI 服务器整机中 50-80%成本来自于芯片,是成本核心。
GPU 方案目前是加速服务器的主流方案。根据 IDC 数据,目前全球应用于加速服务器的 GPU 方案份额大于 85%,剩余的 NPU、ASIC、FPGA 等非 GPU 方案份额约为 15%。从 下游来看,目前互联网厂商是采购主力。1)GPU 方案:GPU 是图形处理器,专用于图形、视频等高性能计算。针对高强度并行 计算,GPU 相较 CPU 而言性能更具优势。目前 GPU 主要应用在图形加速和计算等方面, 在计算端,同时 CPU 搭配 GPU 异构,CPU 符合执行逻辑处理,GPU 负责计算大规模数据并行计算,可以理解为 CPU 的协处理器。从目前的产业生态来看,随英伟达推出 CUDA 后,不断降低开发门槛,CUDA 生态具有较高壁垒。从格局来看,目前 GPU 加速卡里英 伟达是全球绝对领导者,2021 年英伟达占有加速器市场 90%以上份额,目前服务器主流 方案搭配英伟达 V100/A100/ H100 等芯片。
2)非 GPU 方案:主要以 NPU、ASIC、FPGA 等芯片为主,其中 ASIC 和 FPGA 各有特 点。FPGA 灵活性强,功耗低,ASIC 针对性强。我们觉得未来 FPGA 适用于部分对灵活 性要求高快速变化的场景,后续随 AI 逐步发展,FPGA 特性将凸显,未来在服务器中份 额占比会逐步扩大,未来国内厂商产品有望在推理段实现逐步替代。
海外禁售推进国产替代加速。2022 年下半年,美国新增了 3A090 针对高性能芯片的出口 管制规定,限制了 I/O 传输速率在 600Gbyte/s 以上或者“数字处理单元+原始计算单元” 算力和在 4800TOPS 以上的芯片,该项规定限制了英伟达 A100 和 H100 芯片对中国等出 口。目前产业趋势来看,随下游大模型陆续推出,AI 算力需求迅速增加,高算力 GPU 的 国产化推进进程加速。国内企业处于追赶阶段,目前国内 GPU 产品在诸多方面与海外仍有差距。目前国内 GPU 加速计算公司主要有海光信息、寒武纪、景嘉微、壁仞科技等,从硬件端来看,大致与海 外产品有一代以上的差距,从软件端生态来看,国内公司的软件与英伟达 CUDA 生态差 距较大,突破更为不易。但从目前产品迭代进展已经产业链进程来看,国内厂商处于加速 追赶的状态,高算力 GPU 国产化会逐步上升。
第六期“全国移动机器人行业巡回调研活动”合作商招募中
报名热线:400-0756-518
活动时间:2023-09-01至11-30
Copyright © 2018-2025, 服务热线 400-0756-518
www.zhineng518.com,All rights reserved
版权所有 © 518智能装备在线 未经许可 严禁复制 【冀ICP备19027659号-2】 【公安备13050002001911】
运营商:河北大为信息科技有限公司