智算多多
官方邮箱:service@zsdodo.com

公司地址:北京市丰台区南四环西路188号总部基地三区国联股份数字经济总部


在理解Tiiny AI之前,需要厘清一个新的产品概念——到底什么是Agent Box(智能体盒子)?
在过去一年里,为了在本地运行开源大模型,人们们尝试过各种方案:有人用淘汰的旧电脑,有人抢购顶配的Mac mini。
这笔硬投入相当高昂。倘若用户想在本地端运行超过120B的大模型,购买PC电脑要凑近80GB的显存,整机成本超过5万元;即便选择苹果的Mac Studio(选配96GB统一内存版),也要花费超过2万元。
“你是否愿意买台电脑,只用来跑大模型?现在很多几万元的AI电脑,一旦启动本地大模型的时候,内存与算力就被过度占用,你甚至连一个网页都打不开。更别提打游戏或者看视频。”Eco说到。
除了设备本身开销之外,随着Token价格水涨船高,高昂的持续使用成本,也让“本地化部署”成为行业刚需。
因此,在Tiiny AI的产品构想里,其产品必须是台专门的AI设备,能够支持本地大模型和智能体7×24小时后台运行。其设计逻辑并非替代用户的个人电脑,而是作为外接独立设备,供手机、PC、平板或机器人等终端设备接入调用。系统默认将用户数据、凭证和工作流保存在本地,敏感操作无需上传云端,除非明确要求调用更强的云端模型。
在软件生态方面,设备将内置Agent Store,目前已适配OpenAI OSS、Qwen、GLM 等50余款开源大模型,以及 OpenClaw、n8n 等超百款智能体开发工具。
为构建丰富的端侧生态,Tiiny AI计划于今年7月推出模型格式转换工具,除了Tiiny官方支持的SOTA开源模型外,用户也可自行从Hugging Face等开源社区下载、转换并导入其他开源模型和用户自己的微调模型,并能上传分享给其他Tiiny用户。
“我经常给用户打个比方,云端的大模型就像瓶装矿泉水,好喝也要喝,但普通用户有大量高频、重复、贴近个人习惯、又不需要顶级智力的AI需求,就像用矿泉水洗手洗澡就太奢侈了。Tiiny的存在就像属于用户的‘AI水龙头’,你可以随意使用、token边际成本为0。”Eco告诉硬氪。
在Eco看来,云端大模型专注处理高智力、高精度、关键性任务,本地大模型则聚焦日常高频、个性化、带用户长期记忆的持续交互场景——这种“端云协同”模式,正是Tiiny AI,也是Agent Box最核心的价值所在。
在期待、掌声与纷至沓来的投资人邀约中,Tiiny AI难免要面对质疑。它必须回答的第一个问题,就是以并不昂贵的售价,如何实现前沿的产品理念,以及120B的参数模型?
在海外reddit论坛上,对Tiiny AI Pocket Lab的评价两极分化。有人说这只会是玩具,甚至有人通过宣传照逆向工程了Tiiny AI的产品,认为其所宣称的功能很难真正实现。
他们质疑的点在于,Tiiny AI并未公布其所用的SoC(系统芯片)品牌,也没有使用高端的GPU,却能在本地运行120B的大模型。
这令人觉得不可思议。
“我们是一家AI Infra公司,核心是通过系统性底层优化,把有限硬件的每一分算力与资源,全部聚焦于LLM推理与Agent运行,这与其他做硬件的思路有本质不同。”Eco表示。
Tiiny AI Pocket Lab里使用的芯片是一颗SoC外加一颗dNPU,并通过Tiiny AI最核心的技术PowerInfer来实现媲美Nvidia、AMD等高端GPU芯片的本地模型推理能力。
PowerInfer是用于端侧的异构算力推理加速技术,Tiiny AI团队通过大量的数据测算和语料训练发现,大模型推理过程中,参数激活模式分为两类:“热激活参数”(每次与模型交互都会调用的核心参数,约占20%)和“冷激活参数”(仅在用户问到医学、法律等特定领域问题时激活,约占80%)。这种冷热激活的特性,恰好适合在端侧异构算力架构下优化分配。团队开源过PowerInfer的示例:用单个NVIDIA RTX 4090 GPU,运行参数量175B的大模型,速度能达到传统方案的11倍。
这些都属于AI Infra层面的技术积累。从芯片层到Agent调度层,再到模型训练层,都需要深厚的knowhow支撑。
在具体的落地场景中,Tiinny AI团队从Kickstarter的留言区中发现,其用户主要是使用如OpenClaw一类开源应用的普通用户、对数据隐私有刚需的专业人士和AI极客。即使在断网的离线环境下,该设备依然可以运行多步推理、Agent工作流、内容生成以及针对敏感数据的安全计算。“傻瓜式”的开箱即用、0token费的24/7 Agent和完全的自主控制权是这些人选择Tiiny的核心理由。
并且,该设备在系统内引入了长期记忆功能。用户的交互偏好、历史文件与对话记录,均能通过加密形式直接存储在本地硬件中。
“隐私是Agent Box的加分项,但核心在于本地模型的部署,它能够结合你的长期记忆主动做事情,这件事最重要。”Eco告诉硬氪。
Tiiny AI的产品预计在2026年8月交付。需要注意,Tiiny是AI Agent出身的团队,其最终产品呈现仍然是硬件。他们有合作供应商,但也需要应对量产中的突发情况。
硬件生产有太多需要趟过的河流,考验团队的并非融资,而是真正兑现诱人的承诺:在一个300克的盒子上,实现本地算力自由、不受Token价格束缚、完全私密。
