大模型驱动下,AI算力基础设施行业迎来黄金发展期
1、人工智能算力基础设施行业发展概况
(1)AI算力需求增长促使全球云厂商加大AI资本开支,进一步带动人工智能算力基础设施的规模增长
近年来,AI技术持续突破,大模型凭借强泛化能力在产业中广泛应用。随着算力基础设施完善,AI应用场景不断深化,推动产业与应用形成正向循环。
受旺盛需求驱动,中国智能算力规模预计2028年将突破2,781.9EFLOPS,年复合增长率39.94%。全球AI投资同步高涨,2025年超40%的IT预算将投向AI;全球AI资本支出预计从2024年的2,320亿美元至2028年的14,160亿美元,年均复合增速超50%。
其中,AI服务器约占AI资本支出的40%–50%,AI加速卡又占服务器成本的70%(综合占比约30%)。因此,AI资本支出的快速增长将显著拉动AI加速卡市场扩张。
2024-2028年全球人工智能资本支出市场规模及预测(亿美元)
资料来源:普华有策
(2)AI加速卡2024年全球市场已超过1,000亿美元,预计2028年将超过5,000亿美元,届时中国市场需求将超过万亿人民币,占全球市场约30%
云端AI芯片往往以AI加速卡的形式进行销售,或进一步集成至智算系统及集群售往各类客户。以互联网巨头及AI大模型企业为代表的各类企业逐步增大的人工智能资本开支进一步带动了全球AI加速卡的规模。2024年全球AI加速卡以收入计的市场规模约为1,190.28亿美元。在人工智能技术持续演进与数字化基础设施加速完善的推动下,人工智能的商业化应用有望加快落地,并进一步带动人工智能芯片市场的快速增长,预计2028年全球AI加速卡市场规模将达到5,257.70亿美元。
2024-2028年全球AI加速卡市场规模及预测(亿美元)
资料来源:普华有策
作为全球最大的人工智能市场之一,中国对AI加速卡的需求也在快速增长。中国AI加速卡从2020年的122.54亿元增长到2024年的2,164.77亿元,复合年增长率为105.01%。预计到2028年,该市场将达到11,076.46亿元,从2024年到2028年的复合年增长率为50.40%。2028年中国AI加速卡市场需求将占届时全球市场需求的约30%。
这一增长趋势主要源于人工智能应用需求的快速提升,尤其是AI大模型训练和推理对算力的强烈需求,使AI加速卡成为数据中心计算加速的关键硬件。同时,国家不断出台政策支持以及“东数西算”等战略的推进,加快了数据中心的建设,也进一步推动需求增长。
2024-2028年中国AI加速卡市场规模及预测(亿元)
资料来源:普华有策
(3)人工智能的商业化应用带动token调用的上涨,拉动算力需求,乐观预计下2030年全球AI加速卡市场空间预计达万亿美金
AI应用加速渗透推动token调用量激增。2024年以来,头部大模型公司日均token消耗从千亿级跃升至十万亿级。截至2025年9月,字节日均token消耗超30万亿,一年多增长250倍;谷歌日均消耗达43万亿,一年半增长134倍。
展望2030年,全球月token调用量预计达559万—1,878万千亿,为2025年的100—349倍。五年百倍级推理需求增长,将极大拓展算力建设空间。初步预计,2030年全球新增算力需求将达24万—90万EFLOPS,为2025年的10—39倍。若考虑算力价格年均下降15%—25%,2030年全球AI加速卡市场空间约为0.9万亿—1.8万亿美元,为2025年的5—9倍。
2、行业在产业链中的地位和作用
人工智能算力基础设施行业是人工智能产业中的重要组成部分,主要为下游人工智能的训练及推理提供算力,以支持人工智能技术的持续创新以及人工智能应用对各行各业的赋能。人工智能算力基础设施产业链市场景气度与下游半导体和终端应用市场高度相关,其产业链环节以及上下游行业之间的关联性如下:
人工智能算力基础设施产业链
资料来源:普华有策
随着大模型技术的突破,智能算力需求快速扩张。一方面,模型向大参数、多模态演进,催生大规模训练算力需求;另一方面,AI赋能智慧城市、金融、设计等行业场景,推动推理端算力需求激增。作为算力核心支撑,人工智能算力基础设施通过技术迭代,在产业链中占据基础性地位。
3、人工智能算力基础设施行业发展趋势
(1)云端AI芯片是全球AI芯片的主流,预计2024年至2028年云端AI芯片的市场规模占比始终超过80%
AI加速卡根据部署位置可分为云端和边缘端,云端AI加速卡主要应用于数据中心和云端服务器等,随着全球互联网厂商对于数据中心的投入持续扩大,云端AI加速卡市场规模快速增长。预测,全球AI加速卡的云端应用市场规模将从2024年的1,078.66亿美元增长到2028年的4,523.96亿美元,复合增长率为43.11%,占全球AI加速卡市场规模超80%。
2024-2028年全球云端和边缘AI加速卡市场规模及预测(亿美元)
资料来源:普华有策
(2)大模型行业逐渐从大规模训练阶段走向推理落地阶段,预计2026年全球AI推理对AI加速卡需求将超过AI训练场景,中国市场这一趋势更加明显
随着DeepSeek系列大模型的发布,大幅提升开源模型的性能并降低AI软件、AI硬件的使用成本,加速人工智能应用的落地,进而推动推理端算力需求。预测到2028年,AI加速卡的推理用需求将呈现爆发式增长,市场规模将从2024年的476.11亿美元增长到2028年的3,256.18亿美元,复合增长率为61.71%。这一增速远超整体AI加速卡市场的平均水平,反映出推理在实际应用部署中的巨大需求。
2024-2028年全球训练和推理AI加速卡市场规模及预测(亿美元)
资料来源:普华有策
依托DeepSeek等模型性价比提升及国内产业与流量优势,AI应用实现规模化发展。互联网大厂凭借存量用户,应用上线即催生大规模推理需求,且随用户粘性增强,需求将持续扩大。同时,DeepSeek、千问等主流模型开源,降低非头部厂商预训练门槛,推动推理算力占比提升。
从细分市场看,2020至2024年,中国训练用AI加速卡市场规模复合增速达97.95%,预计2028年增至2,990.64亿元;推理用AI加速卡增速更快,同期年均增速为111.06%,2024至2028年有望以59.41%的复合增速扩张至8,085.82亿元,占整体市场规模比重将超70%。
2024-2028年中国训练和推理AI加速卡市场规模及预测(亿元)
资料来源:普华有策
(3)推理场景对于CUDA生态的依赖在持续减弱,AI加速卡性价比成为关键,非GPGPU架构AI加速卡需求占比逐步提高
ChatGPT的诞生推动大语言模型从技术探索走向大规模应用,DeepSeek等开源模型的发布进一步加速AI渗透,推动技术普惠。随着底层大模型开发商向头部收敛,AI加速卡所需适配的模型范围缩小,对CUDA生态的依赖逐步减弱,能效比成为核心竞争指标。
当前AI芯片主流架构分为GPGPU(如英伟达)和非GPGPU(如谷歌TPU、华为NPU)。GPGPU强调通用性,适用于广泛场景;非GPGPU则以算法为中心,针对AI计算特征优化,运行效率更高、性价比更优。尤其在推理阶段,非GPGPU可针对特定模型算子优化,在成本与适配性上具备优势。近期谷歌完全依靠自研TPU训练Gemini3系列,验证了非GPGPU架构支持万亿参数大模型全流程训练的能力,强化市场预期。据高盛预测,全球AI服务器中非GPGPU芯片出货占比将从2024年的36%提升至2028年的45%。
2024-2028年全球AI芯片中GPGPU架构和非GPGPU架构的比例情况
资料来源:普华有策
(4)AI加速卡基础设施向集群化和综合化演进
随着大模型的不断发展,相关主流AI大模型参数已高达数千亿,单一AI加速卡已难以满足超大规模计算需求。行业供应重点正从单点性能提升,转向系统化集群解决方案。
现代智算集群通过三项关键策略突破应对挑战:
纵向扩展(Scale-Up):提升单节点性能,包括改进芯片架构、采用先进制程以提高峰值算力,或通过高速互联技术(如NVLink)增强芯片间通信效率。
横向扩展(Scale-Out):增加算力节点以分担负载,适用于大规模数据集与复杂模型。但集群规模扩大后,节点故障概率上升,需建立高效监控与快速恢复机制(如智能显存分配、故障点恢复),以保障系统稳定性。
跨区域扩展(Scale-Across):通过高性能网络连接多地数据中心,形成统一算力池,突破物理边界。该策略依赖光通信技术与网络优化,解决长距离传输的带宽与延迟问题。
(5)未来中国AI加速卡需求主要集中在头部互联网厂商,2028年头部三家互联网厂商AI资本支出国内占比接近50%
伴随大模型与AIGC发展,中国企业AI资本支出持续增长。但趋势显示,中小企业多通过云服务租赁算力,而非自建集群;头部互联网企业因大模型训练及推理需求,持续加大投入,市场呈现头部集中态势。预测到2028年,字节跳动、阿里巴巴、腾讯三家AI资本支出将占全国近50%,凸显进入头部厂商供应链对AI加速卡供应商的关键意义。
2024-2028年中国AI资本支出规模及预测(十亿美元)
资料来源:普华有策
4、进入行业壁垒
(1)技术壁垒
人工智能算力基础设施行业具有跨学科、多领域融合的技术特征,涵盖芯片架构、软件生态及系统整合等环节,要求企业具备深厚技术积累。同时,持续的产品迭代能力至关重要,需快速响应算力需求,通过多代产品积累经验,形成“设计—验证—优化”的闭环。这对研发投入、人才储备与技术沉淀构成硬性门槛。
(2)专业人才壁垒
人工智能算力基础设施研发涉及多领域技术,需具备跨学科知识的高端人才(如芯片设计、算法优化等)。此类人才培养周期长,国内起步晚、人才短缺,且技术迭代快、行业竞争加剧,核心人才流动性高。新进入者因缺乏品牌与资源优势,难以组建稳定高水平团队,进一步强化了人才壁垒。
(3)客户和市场壁垒
人工智能芯片作为高端半导体产品,客户导入周期长。新产品通常需经过长时间测试验证、小批量试用后,方能进入大规模采购阶段。尤其互联网头部厂商要求严苛,会从推理准确率、响应速度、吞吐量、性价比、供货能力及技术延续性(软件适配)等多维度综合评估,认证壁垒较高。
(4)资金壁垒
人工智能算力基础设施行业属资金密集型,研发与人力成本高昂且持续产生。企业需长期投入高额研发以维持技术竞争力,同时建设软件生态(如工具链、框架适配、开发者培育)以降低用户迁移成本。新进入者难以在短期内积累足够资金支撑全流程投入,而现有企业通过持续投入形成的技术与产品优势,进一步强化了资金层面的行业壁垒。
(5)产业链整合壁垒
对于采用Fabless模式的人工智能芯片企业,其核心业务聚焦于研发与设计,制造、封装、测试及销售等环节则需与产业链上下游协同完成:制造依赖晶圆厂,封装测试需借助封测厂,销售则需与客户紧密沟通以把握市场需求、指导研发方向。新进入者因缺乏相关产业链资源积累,各环节衔接难度大,经营风险较高,从而构成该行业的进入壁垒。
5、行业面临的机遇与挑战
行业面临的机遇与挑战
资料来源:普华有策
6、竞争格局与行业内主要企业
(1)全球竞争格局
当前全球云端AI芯片市场由英伟达主导,2025年其AI加速卡收入份额约76%,产品均采用GPGPU架构。随着AI推理需求上升,非GPGPU架构产品加速部署。2025年谷歌发布由自研TPU训练的Gemini3大模型,打破英伟达在训练领域的垄断。未来,随着谷歌、亚马逊等厂商量产自研芯片,英伟达的垄断地位将面临挑战。
2025年全球AI加速卡市场份额(%)
资料来源:普华有策
(2)中国竞争格局
国内云端AI芯片行业处于发展初期,英伟达占据主要份额,但本土企业正逐步突破。本土厂商分为非GPGPU架构(如华为海思、寒武纪)和GPGPU架构(如摩尔线程、沐曦股份)两类。
2025年,中国AI加速卡出货超270万张,英伟达约200万张,份额近70%。某发行人当年销售3.88万张,市占率约1.4%,在国内厂商中位居前列。未来,英伟达销售存在不确定性,国产芯片份额有望持续提升。
(3)、行业内主要企业包括英伟达、AMD、寒武纪、海光信息、摩尔线程、沐曦股份、壁仞科技、天数智芯、华为海思、昆仑芯、平头哥等企业,具体如下:
行业内主要企业
资料来源:普华有策
《2026-2032年人工智能算力基础设施行业专项调研及投资前景预判分析报告》涵盖行业全球及中国发展概况、供需数据、市场规模,产业政策/规划、相关技术/专利、竞争格局、上游原料情况、下游主要应用市场需求规模及前景、区域结构、市场集中度、重点企业/玩家,企业占有率、行业特征、驱动因素、市场前景预测,投资策略、主要壁垒构成、相关风险等内容。同时北京普华有策信息咨询有限公司还提供市场专项调研项目、产业研究报告、产业链咨询、项目可行性研究报告、专精特新小巨人认证、市场占有率报告、十五五规划、项目后评价报告、BP商业计划书、产业图谱、产业规划、蓝白皮书、国家级制造业单项冠军企业认证、IPO募投可研、IPO工作底稿咨询等服务。(PHPOLICY:MJ)