首页
智算服务
AI 生态大厅
算力商情政策资讯合作与生态场景方案关于我们
控制台

董兵兵:国内AI大模型落地的三重困局与破局之道 | 洞见

发布日期:2026-04-04 来源:腾讯网作者:腾讯网

对数据规模的盲目崇拜

  自ChatGPT引发全球关注以来,“大模型”三个字中的“大”字,几乎成了一种不言自明的褒义词。参数越多越好,语料越广越强,tokens烧得越多越显诚意——这套逻辑在相当长的一段时间里,主导了国内AI产业的资源配置方式。

  诚然,大规模数据训练赋予了大模型超越传统方法的泛化能力与涌现特性,但当这种对“大”的追求从技术手段异化为产业信仰,问题便随之而来。

首先,数据规模与数据质量之间存在着被严重低估的张力。

  国内大模型训练所依赖的语料库中,相当比例来源于互联网公开数据。这些数据中充斥着营销软文、过时法规、虚假信息乃至纯粹的网络垃圾。

  当这些低质量语料被不加甄别地灌入模型,其结果不是智能的增强,而是“幻觉”的系统性放大。一个在错误信息上训练出来的模型,其输出越流畅、越自信,危害可能越大。

  例如,一个为财务审计场景开发的智能体,如果其训练数据中混入了大量不规范甚至造假的财务案例,而又缺乏会计准则的刚性约束,那么它学到的可能不是如何识别造假,而是如何更巧妙地造假。

  这绝非危言耸听——当模型不被告知何为正确,它便只能在统计概率中寻找最可能的回答,而最可能的回答未必是正确的回答。

其次,数据的“大”并不等同于数据的“全”。这一点在垂直领域尤为突出。

  以银行授信模型为例,国内商业银行积累的海量信贷数据,其主体往往是城镇居民和一定规模以上的企业。数据量看似庞大,实则存在严重的结构性偏差——县域小微企业、新市民群体、农村经营主体的数据严重缺失。

  在这样的数据基础上训练出的模型,不可避免地会复制甚至强化既有的信贷歧视:已经容易获得贷款的群体更容易被模型“推荐”,而真正需要金融服务的长尾群体则被算法系统性地排斥在外。数据上的“大”掩盖了覆盖上的“小”,规模上的丰富掩盖了结构上的贫瘠。

再者,对大数据的迷信忽视了“小数据”和人类洞察力不可替代的价值。

  马丁·林斯特龙在《Small Data》一书中深刻指出,真正触达消费者内心需求的商业洞察,往往来自对少数个案的深度观察,而非对海量数据的统计回归。

  大模型擅长在已有模式中寻找规律,但面对真正的创新——那些尚未被数据记录的需求、尚未被市场验证的可能——它是无能为力的。

  把大数据当作“免死金牌”,本质上是用归纳逻辑取代了创新逻辑,用过去的经验圈定了未来的边界。

最后,从经济效率的角度看,“唯大是图”正在制造触目惊心的成本黑洞。

  千亿级tokens的一轮训练动辄耗资数千万元,而上线后在特定任务上的准确率提升可能仅有一到两个百分点。

  大模型是数据、算法、算力三位一体的系统工程,片面追求数据规模而忽视算法精度与算力效率的平衡,不仅是技术上的偏颇,更是资源上的巨大浪费。

  在很多垂直场景中,经过精心设计的小模型配合高质量小数据,完全可以实现更优的性价比。

对供给侧逻辑的路径依赖

  如果说第一重困局是技术层面的认知偏差,那么第二重困局则揭示了更深层次的产业逻辑缺陷:中国AI大模型的发展呈现出显著的供给侧偏重,而对需求侧的关注严重不足。

  当前国内AI产业的基本叙事是这样的:企业通过部署大模型来降低成本、提升效率、优化流程,进而增强竞争力。

  这套逻辑本身没有错,但问题在于,当几乎所有企业都沿着同一逻辑路径疯狂投入时,结果不是竞争优势的构建,而是一场规模空前的“囚徒困境”。

  也许一周之内可以涌现出五十个功能高度雷同的“文旅大模型”,每一个都声称能写攻略、做PPT、生成行程;几十家企业可能同时宣布推出“金融大模型”,功能无非是智能客服、风控报告、舆情监测。同质化率之高令人瞠目,而真正具有差异化价值的创新寥寥无几。

  更令人忧虑的是,这种供给侧的疯狂内卷并未催生出有意义的新需求。我们需要追问一个根本性的问题:AI和智能体的广泛应用,究竟有没有创造出真正的“新消费”?有没有激发出人们此前不曾意识到的需求?有没有催生出年销售额达到百亿量级的新品类?遗憾的是,答案基本是否定的。

  除了对算力本身的需求增长——这本质上仍是供给链条的延伸——AI目前在中国消费市场上并未展现出“需求创造”的变革力量。

  这一困局的根源在于,中国AI产业在很大程度上重蹈了过往产业发展的旧辙。从光伏到新能源汽车,从共享经济到社区团购,“一拥而上、疯狂扩产、价格战、大面积亏损、行业出清”的周期性循环几乎成了中国新兴产业的宿命剧本。

  AI产业正在上演同样的戏码:所有企业都在拼命投入,都想当最后的幸存者,结果是几乎所有智能体企业都在“减员增效”——用AI来裁人,在已经过剩的产能上进一步堆叠过剩,企业利润被挤压到破产边缘。

  大公司凭借资源优势碾压小公司,不但造成严重的社会资源浪费,还对优质创新企业形成了极为恶劣的挤出效应。与供给侧的“喧嚣”形成鲜明对比的是,需求侧的扶持和创新几乎为零。

  当大量补贴和政策资源流向供给端的模型研发和算力建设时,需求端的培育和激发几乎被完全忽视。没有“AI消费券”来降低普通用户的使用门槛,没有系统性的AI素养教育来打开需求空间,更没有政策工具来引导企业从“造工具”转向“造场景”。

  归根结底,供给侧的创新如果不能最终转化为需求侧的价值,那它就不是真正的创新,而只是一种昂贵的自我循环。当所有人都在造锤子的时候,真正稀缺的不是更好的锤子,而是能够发现新钉子的洞察力。中国AI产业迫切需要从“能做什么”的技术驱动逻辑,转向“该为谁做、为什么做”的需求驱动逻辑。

对分配问题的系统性忽视

  如果前两重困局主要涉及技术策略和产业政策层面,那么第三重困局则触及了更为根本的政治经济学命题:AI大模型的应用正在急剧放大生产效率的同时,对由此引发的分配问题几乎完全失语。

  从马克思主义政治经济学的视角看,任何生产力的重大飞跃都必然要求生产关系的相应调整,其中最核心的就是分配关系的重构。

  蒸汽机催生了工厂法和工会运动,电力革命推动了福利国家的建立,信息技术革命则引发了知识产权体系的全面重塑。那么,AI革命对分配关系的重构要求是什么?在中国,这个问题几乎无人认真回答。

当前最突出的分配失衡体现在数据价值的“白嫖”问题上。

  大模型的核心资产是数据,而这些数据的真正创造者是亿万普通用户——他们的搜索记录、消费行为、社交互动、出行轨迹,构成了训练大模型所需的核心语料。

  然而在现行体制下,这些数据被平台企业几乎无偿地获取和使用,由此产生的商业价值几乎百分之百归属于平台,数据的真正创造者不仅未获得任何收益分享,甚至连基本的知情权都难以保障。

  这种“数据剥削”的本质,与早期资本主义的劳动剥削并无二致——只不过被剥夺的不再是体力劳动的剩余价值,而是数据劳动的信息价值。

第二重分配失衡体现在AI驱动的“减员增效”对劳动者的冲击上。

  当一家企业宣布用AI客服替代五千名人工客服,股价应声上涨百分之二十时,一个尖锐的问题便无可回避:效率提升所创造的价值增量,究竟归谁所有?

  在当前的制度安排下,答案几乎是单一的——归股东所有。被替代的劳动者不仅失去了工作,往往还面临零补偿或极低补偿的困境;而那些因技术升级而获得更高生产力的岗位,其薪酬增长也远远滞后于资本回报率的增长。

  AI正在加速“利润归资本、风险归劳动”的分配格局固化。

  更为深层的问题在于,当前几乎没有任何大模型应用试图去解决分配问题本身。在无数的AI应用场景中——智能客服、自动写作、代码生成、图像创作——我们看到的都是生产效率的提升工具。

  然而,有谁开发了一个“收益分配模拟器”?有谁构建了一个能够根据数据贡献度自动计算分润的智能合约?有谁用大模型来探索土地经营权的动态分红方案、产权分割的最优路径、或者全民基本收入的可行性模型?答案几乎为零。这不是技术上做不到,而是在整个产业的价值导向中,“分配”从一开始就没有被纳入考量。

  这种分配缺位的危害是深远的。短期内,它制造了日益严重的社会不平等,动摇了公众对技术进步的信任;中期来看,它抑制了消费能力和有效需求,反过来制约了AI产业本身的市场空间——一个日益贫困化的消费者群体,不可能支撑起一个日益膨胀的AI产业;长期而言,它可能引发严重的社会反弹,以“数据税”“就业税”“AI超额利润税”等形式反噬整个行业。与其等到被动征税,不如主动建立分配机制。

破局之道

在数据治理层面,亟需建立“数据营养标签”制度。

  任何进入模型训练的语料,都应接受时效性、地域覆盖度、信源等级、业务相关性和人工复核度等多维度的质量评估。

  与此同时,每一个垂直领域的大模型,在大规模数据训练之前,都应先注入经过专家验证的“黄金标准”规则集,以此作为模型认知的“锚点”,防止幻觉在开放数据中无限放飞。

  在宏观层面,国家应当审慎处理数据流通与数据安全之间的关系,避免过度管制导致的数据孤岛效应——数据的闭锁与偏颇,对大模型的长期健康发展是致命的。

在产业政策层面,需要从供给侧偏重转向供需两端协同发力。

  一方面,对通用大模型实施适度的准入管理,遏制无序扩张和同质化内卷;另一方面,创新性地设立需求侧激励机制——例如面向普通消费者的“AI消费券”,定向支持非搜索、非聊天类的原生AI服务,倒逼企业从模型竞赛转向场景创新。

  更重要的是,建立常态化的“AI新需求监测”机制,一旦发现某一AI应用催生了品类级的新消费,即给予政策层面的快速响应和重点扶持。让市场信号而非技术参数,成为引导资源配置的核心指针。

在分配制度层面,最核心的举措是建立“数据分润”的强制性标准。

  任何商用大模型都应预留数据贡献度评估和收益返还的技术接口,使数据的创造者能够以现金、服务抵扣或公益捐赠等形式分享模型商业化的收益。

  与此同时,对因AI应用带来的“减员增效”部分,应探索建立阶梯式的就业调节税,所得资金定向用于被替代劳动者的再就业培训和社会保障。

  更为前瞻性的做法是,允许地方政府开展“AI+分配”的制度实验——例如利用大模型和区块链技术,对农村土地经营权、集体资产收益进行动态分配的试点。

  技术从来不是中性的。同样一把锤子,可以建造房屋,也可以砸碎窗户。决定技术走向的,不是算法的精度,而是制度的设计和价值的选择。

  中国AI大模型产业正站在一个关键的分岔路口。一条路是继续沿着“数据越大越好、供给越多越强、分配以后再说”的惯性狂奔,其结局大概率是一场更大规模的产能过剩、更严重的社会撕裂、以及更猛烈的政策反噬。

  另一条路是在技术狂飙中适时踩下刹车,以数据质量取代数据规模、以需求创造取代供给内卷、以公平分配取代赢家通吃,真正让大模型成为推动经济高质量发展和社会共同富裕的引擎。

  大数据不是护身符,供给侧的内卷制造不出新需求,回避分配问题的AI终将被“数据税”和“就业税”反噬。唯有先立数据治理之规、再兴需求创新之策、终建公平分配之制,中国的AI大模型才能从“烧钱幻觉”走向“共同富裕”的星辰大海。这不仅是技术问题,更是一道关乎国运的时代命题。

本文转载自腾讯网, 作者:腾讯网, 原文标题:《 董兵兵:国内AI大模型落地的三重困局与破局之道 | 洞见 》, 原文链接: https://new.qq.com/rain/a/20260404A03T1O00。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐