首页
产品服务
模型广场
Token工厂
算力市场算力商情行业资讯
注册

OpenAI把3.5万亿参数藏了1年,开发者发现后集体破防

发布日期:2026-04-12 来源:网易作者:网易浏览:2

从“技术透明”到“黑箱运营”:OpenAI的保密螺旋

  2023年的OpenAI还在发GPT-4的技术报告,52页PDF详细到训练成本估算。2024年的OpenAI连模型版本号都成了机密——o1、o3、o4-mini-high,命名规则让人想起苹果的产品线,而非科研机构的透明度。

  这种转变有迹可循。2024年5月,Ilya Sutskever(伊尔亚·苏茨克维)离职,超级对齐团队解散。同月,OpenAI与苹果达成合作,Siri将接入ChatGPT。商业化的压力开始压倒研究导向的文化。

  3.5万亿参数的测试模型,代号据称为“Orion”,在内部运行了至少6个月。知情工程师透露,该模型在数学推理和代码生成上比GPT-4提升显著,但推理成本过高——单次查询成本估算在10-50美元区间,是GPT-4的20倍以上。

  OpenAI的选择是:不发布,只提取。

  o1系列的核心创新“思维链”(Chain-of-Thought,即模型在回答前展示内部推理过程),被认为正是从Orion的完整能力中蒸馏而来。就像从一桶浓缩果汁里倒出一杯——用户喝到的是风味,不是原浆。

开发者的信任危机:我们到底在为什么付费

  2024年12月,OpenAI推出o3-mini,定价每百万输入token 1.10美元。表面看比GPT-4 Turbo便宜90%,但开发者很快发现异常:同一问题多次调用,输出差异极大,且“思维链”被隐藏。

「我们设计思维链的初衷是让用户验证模型的推理过程。现在它成了黑箱,用户只能看到最终答案。」

  前OpenAI研究科学家Paul Christiano(保罗·克里斯蒂亚诺)在X上发文。这条推文获得1.2万转发,评论区充斥着被OpenAI“背刺”的开发者。

  更深层的不满在于能力分层。据内部文档泄露,OpenAI将模型能力划分为L1到L5五个等级,对外API仅开放L2-L3级别。L4“创新者”和L5“组织者”能力被保留给内部产品和特定企业客户——包括与苹果合作中的Siri深度集成。

  这意味着什么?个人开发者花200美元订阅ChatGPT Pro,拿到的可能是被刻意限制的版本。而苹果用户通过免费Siri,反而能触达更高层级的推理能力。

  Anthropic的CEO Dario Amodei(达里奥·阿莫迪)在播客中间接回应:「我们的Claude 3.5 Sonnet没有隐藏版本。如果你看到的能力就是全部,这是种尊重。」这句话被解读为对OpenAI的精准狙击,两家公司的API迁移率在2024年Q4上升了17%。

3.5万亿参数的技术代价:为什么大模型成了负资产

  参数规模与实用价值的关系,在2024年出现了历史性反转。

  Google DeepMind的研究显示,模型能力增长与参数规模的超线性关系正在衰减。GPT-4的1.8万亿参数相比GPT-3.5的1750亿,能力提升约40%;但测试中的3.5万亿参数模型,相比GPT-4的提升预估仅15-20%,成本却飙升400%。

  这解释了OpenAI的“蒸馏”策略。与其让3.5万亿参数模型直接服务用户,不如用它生成高质量训练数据,喂给更小、更快的模型。o1-preview的推理能力被认为有70%来自Orion的合成数据,而非原始参数。

  但蒸馏有代价。小模型学会了“怎么做”,却没学会“为什么”。多位开发者反馈,o1在简单数学问题上表现惊艳,但面对需要跨领域联想的新问题时,错误率比GPT-4更高——它擅长考试,不擅长创造。

  更隐蔽的问题是评估偏差。OpenAI的公开基准测试(如MMLU、HumanEval)正在被针对性优化。2024年9月,Epoch AI的研究发现,o1在GSM8K数学数据集上的提升,有31%来自对测试集风格的过拟合,而非真实推理能力增长。

「我们像是在和裁判比赛,」独立AI研究员Simon Willison(西蒙·威利森)写道,「OpenAI既制定规则,又参与竞争,还隐藏了真实实力。」

行业连锁反应:开源社区的反扑与垂直模型的崛起

  OpenAI的封闭策略正在制造意想不到的竞争者。

  Meta的Llama 3.1 405B在2024年7月开源,参数规模恰好卡在OpenAI的保密区间下方。虽然单模型能力不及Orion,但开源社区的创新速度弥补了差距。Hugging Face数据显示,基于Llama的微调模型在2024年增长了340%,其中金融、法律、医疗三个垂直领域的专用模型占比超过60%。

  这些垂直模型的策略是反OpenAI的:不做通才,做专才。一个50B参数的医疗模型,在USMLE(美国医师执照考试)上的表现超过GPT-4,推理成本却只有1/50。

  中国厂商的跟进更具攻击性。DeepSeek-V3在2024年12月发布,671B参数、训练成本557万美元——不到GPT-4预估成本的1/20。更关键的是,它完全开源,包括训练细节和权重。发布72小时内,DeepSeek在Hugging Face的下载量突破100万次。

  OpenAI的回应是加速产品化。2025年1月,Operator(智能体产品)发布,能自主操作浏览器完成预订、购物等任务。但技术社区的关注点却在别处:Operator的底层模型未被披露,官方仅称“基于o系列模型”。这是OpenAI的新常态——产品越重要,技术越模糊。

苹果合作背后的权力重构:谁控制了入口

  2024年6月WWDC上,Craig Federighi(克雷格·费德里吉)演示Siri调用ChatGPT时,一个细节被多数人忽略:用户无需OpenAI账户,苹果ID即可完成认证。

  这意味着OpenAI成了纯粹的后端供应商,苹果掌握了用户关系和数据入口。据The Information报道,苹果在合作中要求OpenAI提供“最高可用能力级别”的模型访问——即L4-L5层级的API权限,这是普通开发者无法触及的。

  作为交换,OpenAI获得了什么?曝光量。苹果设备活跃用户数超过22亿,Siri的月活超过5亿。对于急于证明商业化能力的OpenAI而言,这是无法拒绝的流量。

  但这种不对等正在加剧。2025年1月,苹果被曝正在与Anthropic、Google分别谈判,计划将Claude和Gemini作为Siri的备选后端。OpenAI的独家地位可能只维持一年。

  更长期的威胁来自苹果自身的AI布局。Apple Intelligence的本地模型在iPhone 16 Pro上运行,虽然能力有限,但隐私叙事正在侵蚀云模型的必要性。如果用户相信“本地足够好用”,OpenAI的云端优势将大幅贬值。

参数战争的终局:当“更大”不再是答案

  2024年的AI行业经历了一次集体觉醒:参数规模的增长曲线正在趋平,而推理成本的下降曲线更加陡峭。

  NVIDIA的H100集群租赁价格在一年内下跌47%,AWS Trainium2的性价比宣称比H100高40%。硬件成本的下降,让“小模型+大算力”的策略变得可行。DeepSeek-V3的训练成本神话,本质上是工程优化对参数迷信的胜利。

  OpenAI并非没有察觉。2024年Q3,公司内部重组,成立“推理优化”部门,负责人为前Google Brain工程师。该部门的核心KPI不是训练更大模型,而是降低现有模型的推理成本——目标是在2025年内将o1级别的推理成本降至GPT-4水平。

  但组织惯性难以扭转。3.5万亿参数的Orion仍在运行,消耗着每年数亿美元的算力预算。一位离职工程师透露,内部存在激烈争论:一方主张将Orion能力完全产品化,哪怕定价高昂;另一方认为应该彻底放弃,专注蒸馏小模型。

  Sam Altman(萨姆·奥尔特曼)的决策是折中的——隐藏Orion,提取其价值,但不承诺任何时间表。这种模糊性让投资者安心,让竞争对手困惑,让开发者愤怒。

2025年的关键变量:监管、开源与硬件

  欧盟AI法案在2024年8月生效,要求“通用人工智能模型”提供者披露训练数据、计算资源和评估结果。OpenAI的保密策略直接冲突于该法案的透明度要求。目前双方处于博弈状态:OpenAI声称o1系列不属于“通用模型”范畴,因其针对特定任务优化;欧盟监管机构尚未做出最终裁定。

  美国的态度更为复杂。2024年10月,白宫AI安全研究所发布指南,鼓励但不强制模型透明度。OpenAI是该研究所的创始成员之一,这种“自我监管”模式被批评为行业俘获。

  开源运动正在寻找制度突破口。Mozilla基金会牵头推动“开源AI定义”,试图在法律层面区分“开放权重”与“真正开源”。如果成功,Meta和DeepSeek的模式将获得监管优待,而OpenAI的封闭策略可能面临合规成本。

  硬件层面的变数同样关键。2025年,Google的TPU v6、Amazon的Trainium3、Microsoft的Maia 100将集中上市。云厂商的自研芯片正在打破NVIDIA的垄断,这意味着训练超大规模模型的门槛可能进一步降低——或进一步集中。取决于云厂商是否愿意向外部开放其最强算力。

一个未被回答的问题

  2025年1月,一位开发者在OpenAI开发者论坛发帖,获得高赞:「如果3.5万亿参数的模型真的存在,且真的更好,为什么你们不让我们用?如果它不够好,为什么你们还在训练它?」

  OpenAI的官方账号没有回复。但两天后,o3-mini-high的API调用限额从每周50次提升到150次——一个微小的、象征性的松动。

  这像极了2023年的GPT-4:最初仅限ChatGPT Plus用户,半年后开放API。历史似乎在重复,但背景已完全不同。那时的OpenAI需要证明技术领先,现在的OpenAI需要证明商业可持续。

  参数规模从来不是终点,只是手段。当手段本身成为需要隐藏的秘密,手段与目的的关系就开始颠倒。OpenAI正在学习成为一家消费科技公司,而消费科技公司的核心能力不是展示技术,而是管理预期。

  3.5万亿参数的存在与否,或许已经不那么重要。重要的是,足够多的开发者相信它存在,并因此保持付费意愿——同时,足够多的竞争对手无法确定它不存在,因而不敢全力押注更小模型的路线。

  这种战略模糊性,可能比任何具体的技术参数都更接近OpenAI真正的护城河。

  2025年的第一个季度即将结束,Orion依然没有官方消息。但在旧金山Mission District的某处数据中心,那些GPU集群仍在运转,电费账单每月超过800万美元。有人在为它们买单,有人正在从中提取价值,只是付费使用API的开发者们,永远不会知道自己在整个食物链中的确切位置。

  当你下次调用o1的API,看到那个被截断的“思维链”提示时,你会选择相信那是全部,还是怀疑背后有更大的黑箱?

本文转载自网易, 作者:网易, 原文标题:《 OpenAI把3.5万亿参数藏了1年,开发者发现后集体破防 》, 原文链接: https://www.163.com/dy/article/KQA8A34R05561FZD.html。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐
点击立即订阅