英伟达、AMD、Arm等企业在AI计算领域的持续投入,正推动HBM与算力芯片市场呈现爆发式增长,形成产业链深度协同的新格局。
英伟达作为AI芯片领域的核心玩家,其2025财年第四季度财报显示,数据中心业务收入达356亿美元,同比增长93%,全年数据中心收入突破1152亿美元,同比增长142%。这主要得益于Blackwell架构AI超级计算机的大规模量产——该产品首季度即实现数十亿美元销售额,占云服务提供商数据中心收入的50%。英伟达CEO黄仁勋强调,Blackwell芯片需求远超预期,公司正通过扩大HBM3E供应满足市场需求。例如,H200芯片已搭载美光、SK海力士的HBM3E内存,带宽提升至3TB/s,是前代产品的两倍。尽管市场传闻英伟达单季AI芯片收入突破490亿美元,但根据财报数据,其Q4数据中心收入实际为356亿美元,这一数字已反映AI芯片及相关组件的综合收入规模。
AMD则通过多产品线布局强化AI算力供给。其第五代EPYC服务器CPU采用Zen5架构,单芯片核心数提升至192个,配合Pensando Salina DPU与Pollara 400 NIC,构建起高性能网络解决方案。在终端AI场景,AMD推出Ryzen AI PRO 300系列处理器,集成XDNA 2架构NPU,算力达55TOPS,支持本地运行DeepSeek-R1 70B等大模型。与铭凡合作的AI迷你工作站MS-S1 MAX更展现创新设计:搭载锐龙AI Max+ 395处理器,支持四机集群处理6710亿参数模型,体积较传统5U服务器减少65%,功耗降低80%,成本节省77%。这种“高性能与小型化”并重的策略,正推动AI算力从数据中心向边缘场景渗透。
Arm的转型战略则引发行业格局重构。作为长期提供IP授权的芯片设计领导者,Arm正转向自研芯片生产,计划2025年夏季推出首款面向数据中心的CPU平台。该芯片采用可定制化设计,适配多家客户需求,并与台积电合作开发HBM4封装技术。Arm的指令集架构v9在AI推理与训练中展现能效优势,例如在移动设备与AI个人设备中实现低功耗高性能平衡。然而,这一转型也加剧了与高通等传统客户的竞争——双方在Meta数据中心CPU供应上已形成直接竞争态势。
HBM作为AI算力的核心配套器件,其市场增长与技术迭代同步加速。2025年全球HBM市场规模预计达49.76亿美元,年复合增长率25.86%。SK海力士、三星、美光形成三足鼎立格局:SK海力士通过Advanced MR-MUF技术实现12层HBM3量产,良率接近80%;三星推出36GB HBM3E 12H DRAM,计划下半年大规模量产;美光则跳过HBM3直接布局HBM3E,并已通过NVIDIA验证。技术层面,HBM4预计2026年推出,采用混合键合技术提升堆叠密度与散热效率,带宽有望突破2TB/s。
算力芯片需求结构正发生根本性转变。据Forrester报告,2026年大模型推理算力需求将超过训练需求,占比超70%。这一趋势推动算力芯片向能效比与成本控制优化——例如九章云极通过GPU性能优化与定价策略,使企业AI推理成本降低40%。在应用场景上,推理需求从智能客服、内容生成扩展至工业质检、医疗诊断等领域,要求算力芯片具备更高的计算密度与场景适配性。
国产算力芯片亦加速突破。国内企业在HBM自主可控方面持续投入,尽管当前市场份额有限,但通过技术迭代与生态完善,国产芯片在特定场景已展现性价比优势。例如,部分国产AI加速器在推理任务中实现与进口芯片相当的性能,同时成本降低30%以上。
总体来看,AI需求激增正驱动算力芯片与HBM市场进入高速增长期。英伟达、AMD、Arm通过技术革新与战略调整巩固市场地位,而HBM的技术迭代与需求增长则成为算力升级的关键支撑。这一过程中,产业链各环节的协同创新与成本控制将成为决定市场格局的核心要素。

