AI服务器整机

关键信息摘要
Key Highlights
- 全球AI服务器市场2024年约2,164亿美元,2028年预计3,329亿美元(CAGR 18.8%);中国AI服务器2024年约560亿元、42.1万台;国内外双轨格局:NVIDIA CUDA生态 vs 华为昇腾CANN生态
- ODM主导高端机架组装:工业富联(FOXCONN Industrial Internet,601138.SH)承接约52% GB200/GB300机架份额,2024年营收约5,560亿元;广达约40% GB200 NVL72基板供应;NVIDIA在台湾ODM独占最高端产品
- 国内OEM:浪潮信息(中国第一约32%市占,毛利率仅4.91%)、中科曙光(液冷领导者,24.5%毛利率);超聚变xFusion(华为系2021年分拆,2024年营收40亿元,2026年IPO辅导备案)
行业定义与边界
AI服务器整机是将AI加速芯片(GPU/ASIC)、CPU、内存、存储、网络卡、电源、散热系统集成为可直接部署的算力单元。按形态分为标准机架服务器(1U–4U)、深度学习工作站、整机柜系统(GB200 NVL72/GB300 NVL72)三类。
整机竞争逻辑:AI服务器毛利率极低(国内OEM仅4–7%),价值核心在GPU等核心器件;整机厂的核心价值在于:①供应链整合能力(GPU配额获取);②热设计/冷却方案(液冷是AI机柜标配);③软件栈优化(与CUDA/CANN深度适配)。
国内"双轨"格局:CUDA生态(NVIDIA GPU)和CANN生态(华为昇腾)并存,客户选择受出口管制、国产化要求、预算等多重因素影响。
市场规模与增长
- 全球AI服务器:2024年约2,164亿美元 → 2028年约3,329亿美元,CAGR 18.8%
- 中国AI服务器:2024年约560亿元、42.1万台出货
- 中国移动51亿元集采:昇腾CANN生态约占66%,CUDA生态约34%,验证双轨格局
- 增长驱动:全球AI基础设施支出超3,800亿美元(2025年Hyperscaler资本支出);国内运营商/国企/政府智算中心持续投入
技术演进路线
H100/A100 GPU · 300W-700W功耗
NVIDIA GPU主导 · 全球互联互通
GB200 NVL72 · 120kW机架功耗 · 液冷成标配
华为昇腾主导 · 国内政企优先
GB300/Rubin NVL72 · 800V直流供电 · 兆瓦级机架
客户按需选择 · 国内6:4→4:6
原始图谱
flowchart LR
A[风冷AI服务器\nH100/A100 GPU\n300W-700W功耗] --> B[液冷AI整机柜\nGB200 NVL72\n120kW机架功耗\n液冷成标配]
B --> C[超大规模AI工厂\nGB300/Rubin NVL72\n800V直流供电\n兆瓦级机架]
D[CUDA生态\nNVIDIA GPU主导\n全球互联互通] --> E[CANN生态\n华为昇腾主导\n国内政企优先]
E --> F[双轨并存\n客户按需选择\n国内6:4→4:6]产业价值链结构
NVIDIA AMD · 华为昇腾 寒武纪
浪潮 曙光 超聚变 · 工业富联 广达
Microsoft Google · 阿里 腾讯 百度
运营商 国企 · 政府智算中心
原始图谱
flowchart LR
A[GPU/ASIC供应\nNVIDIA AMD\n华为昇腾 寒武纪] --> B[整机OEM/ODM\n浪潮 曙光 超聚变\n工业富联 广达]
B --> C[云计算/AI运营商\nMicrosoft Google\n阿里 腾讯 百度]
B --> D[政企客户\n运营商 国企\n政府智算中心]重点公司
本土龙头
- 浪潮信息(000977.SZ) — 中国AI服务器第一(市占约32%,全球约11.3%);2024年营收>1,000亿元;GPU配额获取能力是核心竞争力;毛利率仅4.91%(行业最低);已被列入美国实体清单(2023年3月),影响NVIDIA直接供货
- 中科曙光(603019.SH) — 国内液冷服务器领导者(24.5%毛利率,远高于浪潮);海光DCU深度绑定("芯片+整机"战略组合);与国家超算中心合作深度
- 联想(0992.HK) — ISG(基础设施方案集团)2025年营收约128亿美元;全球化布局(亚太/美洲/欧洲),客户多元化;AI服务器是主要增长引擎;HKEx上市
- 超聚变 xFusion(未上市)— 华为AI服务器业务2021年分拆独立;2024年营收40亿元;主打华为昇腾生态整机(Atlas系列);2026年IPO辅导备案(中信证券担任辅导机构),估值预期800–1,200亿元;中国CANN生态整机的最强玩家
海外对标
- 工业富联(FII,601138.SH) — NVIDIA GB200/GB300 AI机架主要ODM,承接约52%份额;2024年营收约5,560亿元;液冷/散热方案是差异化能力;在台湾和中国大陆均有产能
- 广达(2382.TW) — NVIDIA GB200 NVL72基板约40%供应份额;台湾ODM第二大;AI服务器是最大单一业务
- Dell Technologies / HPE — 北美企业级AI服务器双巨头;定制化方案+企业服务+运维是核心价值;毛利率显著高于亚太ODM(Dell AI服务器毛利率约20%)
未升格公司清单
留作行业全景参考,未单独建 note。出现重大催化时考虑升格。
- 紫光股份/新华三(000938.SZ,中国第二大网络设备+服务器)
- 宁畅信息(未上市,实体清单内,IPO推迟)
- 华鲲振宇(四川国资,华为昇腾SW生态整机,CANN方案商)
- 纬创(3231.TW,ODM第三,约21% NVL72份额,2026年进入GB300)
景气度判断
当前景气度(描述性) 信号源:浪潮信息 中科曙光 财报;行业数据
景气度极高但利润分配不均。AI服务器出货量高速增长,但国内OEM毛利率普遍极薄(浪潮4.91%),价值主要由GPU厂商(NVIDIA)和ODM(工业富联、广达)捕获。国内CANN生态整机(超聚变、华鲲振宇)受益于政策驱动的国产化采购,毛利率相对较高但规模仍小。超聚变IPO是近期最重要催化剂,估值800–1,200亿元将重新定价国内AI服务器赛道。
风险提示
关键风险
- 出口管制+毛利率极薄:浪潮信息等国内OEM被列入美国实体清单,直接获取NVIDIA新款GPU(H200/B200)受限;AI服务器毛利率仅4–5%,高度依赖出货量维持总利润;若NVIDIA调整ODM分配或客户直采,OEM收入大幅波动
- 双轨生态不兼容:CUDA和CANN生态互不兼容,投资押错生态方向(如过度布局CUDA生态后NVIDIA管制升级)将导致客户流失;超聚变等CANN生态整机厂高度依赖华为昇腾芯片供给,供应集中风险大