智算多多



AI Agent正在倒逼存储底层架构做一次久违的变革。数据更多了,消费数据的“主体”从人变成了Agent——这两个变量叠加,直接改变了传统的以人为主导的存储消费模型。
如果你最近打算给电脑升级内存条,可能会对着购物车里的价格倒吸一口凉气。原本几百块就能拿下的条子,现在的价格简直是“让人感到陌生”。
AI 的发展,天然对存储提出了高要求。我们可以把传统的AI想象成一个只会死记硬背的学霸(尤其是训练和推理对HBM的巨量需求)挤占了存储芯片产能,间接推高了消费级内存价格。同时新的 Agent 浪潮,更是加重了对内存的需求,现在的AI Agent就像是你雇的一个“超级实习生”——它不仅要听你指挥,还得自己拆解任务、查资料、改代码,甚至熬夜加班。
这个“实习生”要处理的项目动不动就是几万字的超长文档,为了防止他做到一半“失忆”,你得给他准备巨大的“办公桌”(也就是KV Cache)来摊开所有资料;为了让他在开会时能引经据典,你还得给他建一个海量的“私人图书馆”(RAG知识库)。
结果就是,当千万个这样的“数字打工人”同时上线,原本给普通电脑设计的存储体系直接被干懵了。旧的内存不够大,旧的硬盘不够快,GPU只能在旁边干着急。
传统存储体系建立在一个隐含前提之上:数据是被人来检索和消费的。人能够理解关键词,能够通过文件路径导航,能够容忍几百毫秒到几秒的响应延迟。这套前提在人作为终端用户时工作良好,但在Agent时代已经系统性失效。
传统存储只存字节,不存语义。Agent在执行任务时需要的不是“找文件名包含合同的文档”,而是“找和这份合同条款语义相近的历史合同”——这是完全不同的检索需求。关键词索引无法处理同义表达、上下文依赖、跨模态匹配,这个缺口是结构性的,打补丁解决不了。
为了弥补语义盲区,工程实践中普遍引入向量数据库。但主流向量数据库采用存算强耦合架构:为保障低延迟,索引必须常驻内存和计算节点,无论是否发起查询都在消耗算力;扩容时存储和计算资源必须同步购买,资源利用率极低。单个Agent的记忆规模有限时,这个问题还能接受;一旦企业部署数十乃至上百个Agent,成本和运维负担会随规模非线性放大——“越用越贵”是当前Agent大规模落地的核心障碍之一。
当前的对象存储设计面向单一权限体系,多个Agent共用存储池会出现数据串扰、权限失控的安全风险;同时传统对象存储不具备完整的文件系统语义,Agent需要大量适配开发才能正常使用。这两个问题在单Agent场景下尚可绕过,在规模化部署时会演变为项目周期杀手。
腾讯云城市峰会上海站 AI Agent 专场上,发布了全新的 AI 原生存储产品体系 Agent Storage。通过 COS 向量桶、MetaInsight、Agent Bucket 及 COS Skills 生态工具四大核心能力,为 Agent 打造可理解、可检索、可直接消费的智能数据底座。
腾讯云COS向量桶(Vector Bucket)从架构根源上回应了第二重失效。
它的核心设计选择是:彻底解耦存储层和计算层。底层向量数据全部持久化到COS对象存储,不依赖常驻计算集群;检索算力仅在查询发起时按需启动,无查询则无算力消耗。这个设计将向量存储的成本结构从“按算力规模付费”变成了“按存储量付费+查询按量计费”,官方给出的数据是综合成本较传统向量数据库方案降低超过90%。
在索引层,Vector Bucket引入了智能索引策略,自动适配IVF和HNSW等算法,并支持PQ/SQ/RQ量化压缩和SPFresh增量索引更新,无需人工调优——这解决了传统向量数据库运维复杂度高的另一个痛点。性能侧,通过SIMD加速加多级缓存,热查询延迟控制在百毫秒级别;规模侧,单索引支持20亿向量,单桶支持2000亿向量,覆盖企业级Agent集群的记忆需求。
存算分离并非新概念——在OLAP领域早有Snowflake、BigQuery等先例,这一设计逻辑在向量检索场景的落地,其实质是把成熟的云原生分层思想迁移到AI存储栈。
向量存储解决了“怎么存、怎么检索”,但企业实际面临的问题比这复杂:要将非结构化数据转化为Agent可调用的知识,工程师还需要自行拼接数据解析、向量化、索引构建、检索调优、结果溯源这整条链路,每个环节都有学习成本和维护负担,并且各组件之间的版本兼容性是持续的运维噩梦。
MetaInsight的升级回应的是这个工程化难题。它把上述全链路能力封装成一个开箱即用的服务:非结构化数据进入后自动完成内容向量特征提取、标签生成、对象元信息识别;智能算子层内置以图搜图、以文搜图、混合检索、智能排序、查询改写等完整能力;底层数据流向——原始数据落COS、向量自动写入向量存储——对用户完全透明。
在文档检索这个典型痛点场景上,MetaInsight的技术方案可以量化:自研深度语义向量检索技术将多模态检索召回率提升至95%+;面向千万级图片/文档数据集,单次查询延迟低于300毫秒;全链路信息溯源能力让检索结果可以精确定位至原文段落,解决“找得到但无法核验”的合规场景痛点。另外预置了覆盖1000+细分场景的模板,降低了从通用能力到具体业务场景之间的适配成本。
当企业同时运行数十个以上Agent时,一个被系统性低估的问题会浮出水面:每个Agent都需要独立的记忆空间、独立的权限边界和独立的资源配额,而这一切都需要在存储层得到原生支持。
Agent Bucket的“一虾一库”设计针对的正是这个场景:每个Agent拥有完全隔离的存储空间,数据不共享、不串扰;内置完整的文件系统语义——目录树、移动、重命名、搜索——让Agent操作存储空间的体验与操作本地文件系统一致,无需专项适配开发;精细化的用户权限和空间配额管理,让运营侧对每个Agent的资源用量有精准的管控能力。这套能力目前已在腾讯内部的QClaw、WorkBuddy、Lighthouse等产品中完成生产验证。
在MCP协议逐渐成为AI Agent工具调用标准的背景下,存储接口也面临一次适配升级。传统存储SDK为人类开发者设计,并不适合Agent直接调用;每个团队单独做存储能力的MCP封装,重复劳动且标准不一。
COS Skills生态工具的逻辑是:将存储的全场景能力按照MCP标准封装成两套Skills,Agent开箱即用,无需再做适配开发。COS Skill覆盖文件管理、图片处理、智能多模态搜索、文档视频处理等高频操作;COS Vectors Skill专注向量场景,提供向量CRUD、索引管理、批量操作等核心能力,可直接对接RAG记忆、技能路由、多模态检索底座等典型Agent场景。两套Skills已在ClawHub和SkillHub开源上线。
腾讯云AI原生存储产品体系,具备完整的分层设计:Vector Bucket在存储底座层解决成本和规模问题;MetaInsight在智能能力层解决数据可用性问题;Agent Bucket在应用接入层解决多租户隔离问题;COS Skills在生态接入层解决调用标准化问题。四层从下到上依次打通,构建了“存储底座层—智能能力层—应用Agent层”的完整AI原生存储架构。
存储行业的下一个分水岭,已经不再是每GB单价之争,而是能否真正理解并服务好Agent作为存储消费主体这个新现实。