首页
产品服务
模型广场
Token工厂
算力市场算力商情行业资讯
注册

美国开源AI最后的旗帜,也倒了

发布日期:2026-03-31 来源:澎湃新闻网作者:澎湃新闻网

核心人员打包进微软

  核心人员集体离职,是一个非常不妙的信号。

  Ai2前CEO阿里·法哈迪、前首席运营官索菲·莱布雷希特、汉娜·哈吉希尔齐和兰杰·克里希纳,统统被苏莱曼打包进了微软。

  法哈迪已于3月12日卸任,结束了超过两年半的Ai2掌门人生涯。

  他与Ai2的渊源颇为深厚。法哈迪是一位计算机视觉专家,也是华盛顿大学计算机科学与工程学院的教授,该院即以微软联合创始人、Ai2创始人保罗·艾伦(Paul Allen)的名字命名。

  他还联合创立了Ai2的衍生公司Xnor.ai,该公司于2020年被苹果以约2亿美元的价格收购。在苹果,他曾领导机器学习工作。

  哈吉希尔齐是OLMo开源模型项目的联合负责人,上周刚在英伟达GTC大会上代表Ai2参加了多场会议,还和黄仁勋探讨开源模型的未来。

  她还是开源多模态人工智能基础设施加速科学发展项目(OMAI)的联合首席研究员。

  这个项目旨在构建用于科学研究的开源模型,为期5年,耗资1.52亿美元,由英伟达和美国国家科学基金会联合资助。

  克里希纳则主导了Ai2多模态模型Molmo等多个关键项目,同样在刚刚结束的GTC大会上代表Ai2发表演讲。

  而现在,这些人才将集体加入微软穆斯塔法·苏莱曼的超级智能团队。

  从去年11月起,苏莱曼就开始组建超级智能团队,目前已从谷歌、Meta、OpenAI、Anthropic等巨头挖角了不少研究人员,还在不断从Ai2和华盛顿大学聘请人才。

  苏莱曼在领英上公开发帖,欢迎他们的加入。

  他还称赞法哈迪带领Ai2在一年内发布了100多个模型;而哈吉希尔齐是“世界上被引用次数最多的自然语言处理研究人员之一,毋庸置疑”。

  而莱布雷希特则扩大了Ai2的运营规模和开源工作,共同领导和创立了Xnor.ai和Neon Labs,还拥有布朗大学认知神经科学博士学位。

  苏莱曼表示,他们将助力推进微软的使命——实现“以人为本的超级智能:打造更安全、可控、更强大的AI系统,服务于人类以及解决最棘手的问题”。

  法哈迪也在领英上表示自己很高兴加入微软。

  可想而知,一批核心人员的离职对于Ai2而言是一次重大打击。但他们为什么要走呢?

答案还是出在资金上

  Ai2董事会主席比尔·希尔夫透露,法哈迪希望在人工智能的前沿领域进行研究,而OpenAI、谷歌等公司会花费数十亿美元来训练最先进的模型。

  但对于一家非营利组织而言,很难以慈善资金训练出对标巨头的模型,还完全开源。

  希尔夫表示,董事会必须权衡其慈善资金是否还应该用于“追赶进度”。他也承认,在大模型开发的最高规模上与科技巨头竞争,已经变得异常困难。

  此话怎讲呢?GPT-4级别模型训练成本估计在1-2亿美元量级,当前前沿模型已攀升至数亿美元。

  AI2的年度运营预算虽未公开,但可以参考一些指标。

  比如OMAI项目的1.52亿美元是五年期、多机构共享的专项资助,年均约3000万美元,仅相当于最前沿的单个大模型训练成本的一小部分。

  这和巨头相比是数量级差距,很难正面竞争。

  进一步来说,投资方的策略调整是更加决定性的因素。

  Ai2最初由艾伦的Vulcan公司资助,后来由其遗产继续资助。现在的最大资助方是科学与技术基金会(FFST),该基金会由保罗·艾伦的遗产设立,规模达31亿美元。

  2024年,琳达·斯图尔特博士接任FFST CEO后,资助策略发生了显著变化。

  斯图尔特是一位医生科学家,曾领导华盛顿大学蛋白质设计研究所。

  她更倾向于具有明确科学应用和可量化社会影响的项目,而非投入大量资金进行前沿模型的研究。

  据GeekWire报道,2026年Ai2的所有项目都已经获得全额资助,但FFST的资助模式将由提供年度总资助转向基于项目提案的资助模式。

  这种转变意味着什么?在年度整体资助模式下,研究机构通常拥有较高自主权,能够承担长期风险、灵活调整资源分配。

  而基于提案的模式引入了更强的成果导向和短期问责,每个资助周期都需要明确的可交付成果和影响力指标。

  对于开源基础模型开发——周期长、成本高、商业回报不直接——这种转变意味着更大的不确定性和更高的申请成本。

  有知情人士透露,FFST未来的资助预计将更倾向于人工智能的实际应用,而非构建开源基础模型。

  这也很好地解释了,为何专注于模型开发的研究人员纷纷选择离开。

美国开源AI最后的旗帜倒了

  消息一出,X上一片悲鸣。

  不少网友表示:美国开源AI最后的旗帜也倒了。

  为何这么说?因为过去几年,Ai2确实投入了大量资源做真正开源的大模型。

  Ai2的OLMo系列,极致地践行了“完全开源”(truly open)理念。

  它不仅开源模型权重,而且从数据处理到预训练、微调,再到评测,全阶段都公开透明。并且始终采用对开发者友好的Apache2.0许可证。

  2025年11月发布的OLMo 3,进一步强化了这种透明度承诺。该系列包括Base、Instruct、Think和RL Zero四个变体,覆盖7B和32B参数规模。

  其中OLMo 3-Think 32B被宣传为“该规模首个完全开源推理模型” 。

  更重要的是,Ai2发布了完整的“模型流程”(model flow),包括训练日志、中间检查点、完整代码和配置。

  还有升级版的OlmoTrace工具,允许研究者将模型推理步骤回溯到具体影响它的数据和训练决策。

  因此也有说法认为:OLMo与Llama 4、Mistral Large 3并称为“三大开源支柱”。并且OLMo更透明,因为它提供所有中间产物,而Llama只开源权重,Mistral部分数据闭源。

  但现在,这个开源领域旗帜性的标杆,倒了。

  一时之间,梗图与迷因齐飞。

  大洋彼岸的网友们进行了一场赛博悼念,大感“开源悲剧”,还有人联想到了全球同此凉热。

  不过也有人认为,这很正常,开源经济学理论站不住脚。用非营利方式做顶级开源模型这条路,难以持续。

开源AI的东升西落

  美国仍有开源力量,但都在变形:

  • Meta的LLaMA,名义上“开源”,但越来越偏“可控开放”。训练数据不公开,许可有限制,并且还持续难产。
  • 谷歌的Gemma,提供模型权重、推理使用权限,但同样没有完整训练数据或流程。
  • Hugging Face的SmolLM,完全开源,但由社区驱动,缺乏大规模训练资源。
  • 英伟达的Nemotron系列,近期更开放了,不断推出开放许可,更多开源数据发布,但主要服务硬件生态。

  相比之下,中国的开源模型已经超越了美国领先的开源模型,并进一步拉大了与它们的性能差距。

  现在,Ai2的战略调整,也会加速美国与中国在开源AI领域的差距扩大。

  在OpenRouter上,过去三周中国大模型的调用量已经连续超过美国,跟领先的闭源模型也打得有来有回。

  MIT与抱抱脸的联合报告显示,过去一年,中国开源模型全球下载量占比达到17.1%,首次反超美国。

  许多美国初创企业也开始“悄悄”依赖中国开源模型进行构建,其默认选择进一步向中国模型倾斜。

  比如上周Cursor发布新模型Composer 2,被曝套壳Kimi K2.5;还有初创公司Deep Cogito去年发布的Cogito v2.1,也被曝基模是DeepSeek,都从侧面证实了中国开源模型的实力。

  开源的火种未熄,但风向已变。开源AI已经完全进入了中国时间。

  开源AI的未来,只能在中国了。如果存在一个大模型安卓版,那这个也只能在中国了。

本文转载自澎湃新闻网, 作者:澎湃新闻网, 原文标题:《 美国开源AI最后的旗帜,也倒了 》, 原文链接: https://www.thepaper.cn/newsDetail_forward_32861686。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐
点击立即订阅