首页
产品服务
模型广场
Token工厂
算力市场算力商情行业资讯
注册

Meta把4000亿参数模型开源后,这次又憋了2个新招

发布日期:2026-04-07 来源:网易作者:网易

去年4月,Meta甩出Llama 4 Maverick时,开源社区愣了一下——4000亿参数、混合专家架构、128个神经网络各司其职,这配置放在闭源阵营也是顶配。结果不到一年,风向变了。彭博社去年12月爆料,Meta打算把下一代大模型收进围墙。今天Axios的消息又打了个回旋镖:闭源归闭源,开源版还是会有的,只是要"晚些时候"。

这种反复横跳,像极了产品经理在OKR和用户体验之间的经典拉扯。

Meta内部给两个新项目起了水果代号:大语言模型叫Avocado,多媒体生成器叫Mango。今年都会亮相。Axios的信源说,开源版本会从这两个项目里"衍生"出来,但具体阉割多少、什么时候放出来,全是问号。唯一确定的是,Meta想把模型"尽可能广泛地撒到全球"——这话听着像战略,更像给监管机构和开发者社区同时递话。

开源版会缺什么?三种阉割方案

Llama 4 Maverick不是单一神经网络,而是128个"专家"组成的联邦,每个专精不同任务。这种架构的好处是灵活:推理时只激活部分专家,省算力。但坏处也明显——想阉割开源版,Meta至少有三种手术刀可选。

第一种是拆专家。直接把某些神经网络从开源版里拿掉,比如专门处理网络安全代码的那部分。Axios的报道提到,AI安全是阉割的核心理由之一,而Anthropic的Claude 4.6 Opus已经在开源项目里挖出了数百个关键漏洞。Meta显然不想把造武器的手册和武器本身一起开源。

第二种是砍参数。4000亿变成2000亿,或者更低。参数规模直接决定模型能吃下多少知识,也决定了它需要多少显存。很多前沿模型跑不动个人电脑,不是因为算法不行,是硬件门槛太高。

第三种是跳过训练后阶段。大模型训练分几步:预训练喂海量数据打基础,然后才是对齐人类偏好、强化学习等"后训练"。开源社区常见的套路是放出没做后训练的"裸模型",让开发者自己微调。成本低,但翻车风险也高。

Meta到底选哪几种组合,Axios没挖到。但"不会包含闭源版的全部功能"这句话,基本等于预告片里"最终效果以实物为准"的小字。

为什么非要"双轨制"?

闭源卖API,开源换生态,这套打法Meta不是第一个玩的。但Llama系列的特殊之处在于,它已经成了开源大模型的默认选项。Hugging Face上下载量最高的基础模型,Llama家族常年霸榜。这种影响力换算成商业术语,叫"开发者心智份额"。

但开源的代价也很实在。去年Llama 4 Maverick发布时,Meta估计烧掉了数十亿美元训练成本,换来的直接收入是零。云服务厂商倒是赚得盆满钵满——AWS、Azure、Google Cloud把Llama封装成托管服务,Meta一分钱抽成拿不到。

闭源版Avocado和Mango的商业模式,大概率要补这个窟窿。企业客户为API调用付费,按token计价,现金流清晰可预测。开源版则继续当"鱼饵",钓开发者、钓学术论文引用、钓下一代工程师的职业习惯。

Axios的信源还透露了一个细节:Meta不指望新模型"全面碾压"竞争对手。Anthropic和OpenAI的旗舰产品也在路上,三家撞档几乎是定局。Meta的打法是找"多个强项领域"切入消费者市场——翻译成人话就是,不拼通用能力,拼特定场景。

个人健康和家庭场景被点名,这俩领域的共同点是数据敏感、监管严格、用户付费意愿模糊。闭源模型可以签企业级协议、过合规审计,开源版放出去就是裸奔, liability(法律责任)算不清。

硬件效率可能是隐藏王牌

Axios的报道里埋了一个容易被忽略的线索:Meta可能在优化模型的硬件效率。前沿LLM跑不动个人电脑,是行业公开的秘密。GPT-4级别的模型,本地部署需要专业级显卡,消费级硬件连门槛都摸不到。

但"跑在本地"这件事,对特定用户群有致命吸引力。企业怕数据泄露,开发者怕API限速,极客纯粹嫌订阅费贵。如果Meta能把Avocado的开源版压缩到单张消费级显卡可运行的规模,哪怕智商打七折,也会有一群人抢着用。

这步棋的参照系是苹果。M系列芯片的神经网络引擎,本质上就是在赌"端侧AI"的未来。Meta没有自己的操作系统和芯片,但它有Llama的品牌和开发者社区。把模型做小、做快、做省电,可能是它唯一能打的差异化。

当然,"硬件效率"也可能是烟雾弹。Axios的原话是"It's also possible",信源自己都不确定。但在这个时间点放出这种风声,至少说明Meta内部有人在押这个方向。

时间线里的不确定性

Avocado和Mango今年发布,开源版"eventually"推出。这个模糊的时间副词,在科技报道里通常意味着"我们也不知道,或者知道但不能说"。

更微妙的变量是监管。欧盟AI法案把通用大模型分成不同风险等级,开源模型的责任归属至今扯皮。美国这边,特朗普政府的态度比拜登时期宽松,但州层面的立法在加速。Meta的"广泛全球分发"野心,撞上国别监管的高墙,是迟早的事。

另一个不确定是社区反应。Llama 4 Maverick的开源许可证已经引发过争议——商业使用有限制,修改后必须同样开源。这种"传染性开源"条款,让部分企业望而却步。Avocado和Mango的开源版如果沿用类似条款,生态扩张的速度会打折扣。

但反过来看,如果Meta突然转向Apache 2.0之类的宽松许可,又会被解读为"闭源版要收网了,开源版只是弃子"。信任这东西,建立三年,毁掉一句话。

竞争对手在干什么

Anthropic的Claude 4.6 Opus已经在代码安全领域建立了口碑,发现漏洞的能力被多家安全公司验证。OpenAI的GPT-5传闻不断,Sam Altman在X上的预告越来越像行为艺术。两家都是闭源路线,API定价一个比一个贵。

开源阵营这边,Mistral和DeepSeek在追赶,但Llama的生态惯性太强。Hugging Face的模型hub上,基于Llama微调的变体超过十万种,从医疗问诊到占星算命无所不包。这种网络效应,不是单纯的技术指标能衡量的。

Meta的双轨策略,某种程度上是在两边下注。闭源版去企业市场抢预算,开源版守住开发者基本盘。风险在于,如果两个版本差距太大,社区会质疑开源的诚意;如果差距太小,企业客户凭什么付费。

这个平衡木,OpenAI和Anthropic不用走——它们根本没有开源版。Meta的选择题更复杂,但选项也更丰富。

Axios的报道结尾处,信源提到Meta认为新模型会有"areas of strength"吸引消费者。没有具体举例,但结合前文提到的个人健康、家庭场景、硬件效率,拼图已经隐约可见:一个更轻、更快、更私密的AI,可能以你意想不到的方式出现在你的手机里。

至于它能不能真的"广泛分发到全球",或者会不会在半路被某个国家的防火墙拦下,答案大概要等到"eventually"变成具体日期那天才知道。你更想先用上哪个——能本地跑的"缩水版",还是功能完整但得联网的"完整版"?

本文转载自网易, 作者:网易, 原文标题:《 Meta把4000亿参数模型开源后,这次又憋了2个新招 》, 原文链接: https://www.163.com/dy/article/KPT93H0M05561FZU.html。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐
点击立即订阅