首页
智算服务
AI 生态大厅
算力商情政策资讯合作与生态场景方案关于我们
控制台

别只盯着英伟达!A股国产算力开启放量模式,这几个高景气板块多看远一点

发布日期:2026-04-16 来源:百家号作者:百家号浏览:1

AI算力需求爆发,国产产业链全面进入“放量模式”

最近,如果你关注科技和财经新闻,可能会被一连串的消息刷屏。英伟达最先进的Blackwell系列芯片,在云端数据中心的单小时租金达到了4.08美元,这个价格比两个月前高了48%。

国内三大云服务商阿里云、腾讯云、百度云,在4月份集体宣布对AI算力相关服务提价,涨幅从5%到34%不等。另一边,谷歌宣布其新一代TPU v7芯片因为功耗高达980W,要求100%采用液冷散热方案。

这些看似分散的事件,都指向同一个核心:2026年,一场由AI驱动的算力需求海啸已经到来,而国产算力产业链正站在浪潮之巅,进入一个前所未有的“放量模式”。

中国AI大模型调用量持续领跑全球

全球AI大模型聚合平台OpenRouter在4月初发布了一组数据。在3月30日至4月5日这一周,全球AI大模型的词元总调用量达到了27万亿,环比增长了18.9%。更引人注目的是,中国AI大模型的词元调用量已经连续五周超过美国,并且连续五周保持正增长。

最新一周的数据显示,中国模型的调用量是12.96万亿Token,环比大幅增长31.48%,而美国模型的调用量为3.03万亿Token,环比仅微增0.76%。有机构测算,国产Token的总量已经突破了140万亿。这些飞速跳动的数字,直接翻译成现实世界的行为,就是互联网大厂和AI实验室对算力资源的疯狂渴求。

头部厂商资本开支激增,算力租赁市场快速扩张

作为国内AI算力需求的最大来源,以百度、阿里、腾讯为代表的头部互联网厂商,其资本开支在2025年保持了高速增长。2025年第一季度和第二季度,这三家公司的合计资本开支同比分别增长了100%和168%。尽管第三季度增速因高基数等因素有所放缓,但增长的势头没有改变。阿里管理层在最近的财报交流中透露,目前服务器的上架速度已经跟不上客户订单的增长速度,公司未来可能会上调此前制定的三年3800亿资本开支计划。市场普遍预计,2026年,在训练和推理算力需求持续高景气的背景下,大厂的资本开支将继续攀升。

面对如此汹涌的需求,算力租赁成为了快速匹配供需的关键模式。这种模式能让应用端的企业,特别是广大中小企业,以相对较低的成本快速获得和使用AI算力。根据市场研究机构IDC的预测,2026年全球算力租赁市场规模将突破800亿美元,年复合增长率超过25%。

聚焦中国市场,行业的增长更为迅猛。中研普华产业研究院预测,2026年中国算力租赁市场规模将达到2600亿元,同比增速超过62%。这个市场正从简单的“规模扩张”阶段,迈向提供一体化服务的“价值深耕”阶段。

市场的火热直接体现在价格和订单上。纽约数据提供商Ornn的Compute价格指数显示,近几个月来,英伟达全系列GPU在云端数据中心的现货租赁价格均大幅上涨。除了租赁价格,提供算力服务的云厂商也在调价。腾讯云在4月宣布,自5月9日起,对AI算力等相关产品服务价格集体上调5%,而这距离其3月中旬的上一轮涨价还不到两个月。

阿里云和百度云则宣布从4月18日起提价,幅度在5%至34%之间。下游旺盛的需求,使得上游的算力租赁商和服务器采购变得异常活跃。协创数据公司在2025年3月计划以30亿元采购服务器,5月再度加码拟采购不超过40亿元的服务器,短短数月内投入超80亿元,成为当年最活跃的算力服务器“买家”之一。

高功耗催生液冷技术加速普及

算力需求的爆发,不仅催生了租赁市场的繁荣,也对数据中心的基础设施提出了极限挑战。AI芯片的算力在不断提升,随之而来的是功耗的急剧飙升。英伟达的H100、H200芯片热设计功耗约为700W,而新一代的B200、B300芯片功耗预计将超过1000W。这使得单个AI服务器机柜的功率密度激增,据IDC 2026年4月的最新报告,全球AI服务器单机柜功率已突破60kW。传统的风冷散热技术已经无法应对如此高密度的热量,具有更高散热效率的液冷技术,正从过去的“可选项”迅速转变为“必选项”。

液冷市场的渗透率正在以惊人的速度提升。根据中商产业研究院的数据,液冷技术在数据中心的渗透率从2021年的不足3%,快速突破至2025年的20%。随着2026年AI算力的集中爆发,这一渗透率有望提升至37%。摩根大通的报告显示,受英伟达及云服务商部署定制AI芯片的需求推动,2026年全球AI服务器液冷系统市场规模预计将从2025年的89亿美元飙升至170亿美元以上。谷歌对新一代TPU芯片100%液冷的要求,以及即将在深圳召开的第四届数据中心液冷技术大会,都在为这个赛道持续加温。

产业从试点示范迈向规模量产阶段,上市公司的订单情况提供了最直接的印证。鼎通科技在互动平台上表示,公司新增液冷产线,主要原因是液冷产品订单持续,现有产能已经无法覆盖需求。飞荣达也表示,公司在液冷领域已构建起较强的产品设计、制造和测试能力,现有产能可灵活应对当前订单交付需求。这些信息表明,液冷产业链上的公司正在经历订单的爆发式增长。

国产AI芯片迎来历史性放量机遇

在算力需求的驱动和外部供应链环境的共同作用下,国产AI芯片迎来了历史性的放量机遇。TrendForce集邦咨询预测,到2026年,国产AI芯片在国内高端AI芯片市场的供应份额将达到70%,而英伟达H200、AMD MI325等同级海外产品的份额将降至30%。以寒武纪、海光信息为代表的国产芯片厂商,正在单卡性能上加速追赶。同时,这些厂商通过兼容CUDA及自研两种方式构建软件生态,逐渐突破原有的生态壁垒。

具体的出货量数据勾勒出增长的轨迹。有市场信息显示,华为与寒武纪的AI芯片在2026年的合计出货量预计将超过100万片。其中,寒武纪的出货目标备受关注。尽管公司对具体数据不予置评,但外媒报道称其计划在2026年交付约50万颗AI加速芯片。作为参考,高盛曾估计寒武纪2025年的AI芯片产量约为14.2万颗。从市场份额看,在国产AI芯片的出货中,昆仑芯和寒武纪在2025年分别占据了约3%的市场份额,海光信息约占2%。字节跳动是寒武纪目前最大的客户,贡献了其超过50%的订单。

运营商集采验证国产超节点放量元年

运营商集采订单的落地,为国产算力的规模化扩张提供了另一个确凿的信号。中国移动2026-2027年人工智能超节点设备集中采购项目已于4月8日开标,本次集采明确指定采用华为CANN生态,采购规模为6208张AI加速卡,折合776套计算节点设备。

行业分析认为,这验证了在运营商领域,国产超节点设备开始放量,2026年有望成为国产超节点放量的元年。超节点作为一种通过系统级重构来提升算力集群效率的技术,被认为是弥补国产单卡性能差距、实现破局的重要路径。华泰证券测算,到2028年,国产超节点市场的空间有望达到3414亿元。

资本市场积极反应全产业链景气度

市场的资金流向也在反映这些变化。算力租赁、液冷服务器等板块在A股市场表现活跃,相关概念指数出现大幅上涨。机构研报频繁提及“全链通胀”、“训推共振”、“国产化放量”等关键词。

这些现象共同描绘出一幅图景:从最底层的国产AI芯片,到承载芯片的服务器和液冷系统,再到对外提供服务的算力租赁与云平台,整条国产算力产业链的各个环节,都在2026年感受到了强烈的需求拉动,并进入了订单和产能的快速爬坡期。

本文转载自百家号, 作者:百家号, 原文标题:《 别只盯着英伟达!A股国产算力开启放量模式,这几个高景气板块多看远一点 》, 原文链接: https://baijiahao.baidu.com/s?id=1862575950515530589&wfr=spider&for=pc。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐