国产AI芯片突破!阿里百度启用自研芯片训练模型,GPU服务器市场格局生变
2025年9月12日,据美国科技网站The Information报道,阿里巴巴与百度两大科技巨头已启动自主设计芯片用于人工智能模型训练,在部分场景中替代长期依赖的英伟达芯片,这一进展标志着中国在AI算力自主可控领域迈出关键一步,也为国内
GPU服务器与
服务器产业发展注入新动能。
从企业实践来看,阿里巴巴自2025年初便将自研芯片应用于轻量级人工智能模型训练。据三位直接使用该芯片的员工透露,其在算力性能、稳定性及适配性上,已可与英伟达专为中国市场设计的H20芯片媲美。目前,该芯片已落地电商智能推荐模型训练、阿里云面向企业客户的轻量化AI服务等场景,在配套的GPU服务器与服务器运行中,能稳定提供高效算力,显著降低对英伟达芯片的依赖。回溯阿里造芯历程,2018年收购中天微后成立“平头哥”半导体公司,将芯片业务归入达摩院体系,先后推出含光800、玄铁处理器、倚天710等产品,并在云计算与推理加速场景逐步落地;今年早些时候,还内部测试国内晶圆厂代工的新型AI推理芯片,以补齐大模型推理与云计算短板。资金投入上,阿里过去四个季度在AI基础设施(含GPU服务器、服务器核心芯片研发)与产品研发累计投入超1000亿元,今年2月更宣布未来三年追加3800亿元用于云计算与AI硬件基础设施建设,芯片研发是核心投向。
百度则聚焦核心人工智能模型迭代,试验用自主研发的昆仑芯P800训练新版文心大模型。昆仑芯作为百度长期研发的AI加速芯片系列,P800采用自研XPU架构,在FP16/INT8推理场景性价比突出。百度在芯片领域布局深远,2011年成立芯片研发团队,2018年推出首款昆仑芯片用于自动驾驶和云端推理,2021年昆仑二代算力数倍提升,如今P800参与文心大模型训练,不仅是对芯片性能的“实战检验”,更推动百度构建“框架+芯片+模型”全栈自研AI生态,为其AI专用服务器与GPU服务器集群提供核心算力支撑。
值得注意的是,当前阿里、百度均采用“自研芯片+英伟达芯片”并行模式。两家企业仍用英伟达高端芯片开发最尖端人工智能大模型,这种混合使用、分场景部署的策略,既体现了对GPU服务器与服务器集群算力稳定性的谨慎考量,也反映出自研芯片正从“补充角色”向“核心角色”过渡的阶段性特征。
这一转变背后,是美国对中国先进AI芯片出口限制不断收紧的外部压力,也离不开中国政府的政策支持。2020年《国家十四五规划》明确提出2025年国产芯片自给率达到70%的目标,为产业发展指明方向。在此背景下,中国AI行业自主可控趋势凸显,除阿里、百度外,DeepSeek也已使用华为昇腾AI芯片训练部分模型,虽面临训练稳定性、多卡互联带宽不足等问题导致模型发布时间推迟,但适配进度仍在持续推进。
市场对国产芯片突破反应积极,阿里巴巴美股隔夜大涨8%,报155.44美元(折算港股价格150.73港元/股),港股(09988.HK)高开5.86%,报151.7港元,创2021年11月以来新高,百度港股亦同步跟涨,彰显投资者对中国科技企业突破算力瓶颈、推动GPU服务器与服务器产业升级的乐观预期。
对于行业格局变化,英伟达发言人表示“竞争无疑已经到来”,并强调将继续努力赢得全球主流开发者信任;英伟达CEO黄仁勋此前透露正与白宫讨论在华销售下一代AI芯片,但需时间,另有报道称英伟达已与特朗普达成协议,需上缴在华H20芯片销售额的15%。
行业分析师指出,AI芯片自研潮的兴起,意味着AI基础设施行业正从“单一GPU供给约束”向“多元化定制芯片方案”切换,这一趋势不仅在中国显现,全球范围内,OpenAI宣布与博通联合设计首款自研AI芯片,谷歌加速自研TPU进入第三方数据中心与英伟达直接竞争,都将深刻影响全球GPU服务器与人工智能服务器市场的发展方向。
不过,自研芯片要实现对英伟达的全面替代仍面临挑战,在超大规模人工智能模型训练方面,短期内仍难与英伟达生态脱钩。未来,随着技术持续迭代与产业生态不断完善,中国科技企业有望逐步实现从“部分替代”到“全面自主”的跨越,为全球AI算力与服务器产业发展贡献更多中国方案。