首页
产品服务
模型广场
Token工厂
算力市场算力商情行业资讯
注册

MTT S5000

发布日期:2026-04-13 来源:百度百科作者:百度百科浏览:2

产品简介

  MTT S5000是摩尔线程基于第四代MUSA架构“平湖”打造的一款AI训推一体全功能GPU智算卡,于2024年推出,专为大模型训练、推理及高性能计算设计。

  该产品单卡AI稠密算力最高可达1000 TFLOPS,配备80GB显存,显存带宽达1.6TB/s,卡间互联带宽为784GB/s,支持从FP8到FP64的全精度计算。MTT S5000依托MUSA全栈平台,可适配PyTorch、Megatron-LM、vLLM及SGLang等AI框架,应用于夸娥智算集群。

产品规格

  MTT S5000是摩尔线程基于第四代MUSA架构“平湖”打造的AI训推一体全功能GPU智算卡,适用于大模型训练、推理及高性能计算场景。该产品支持从FP8到FP64的全精度计算,配备了硬件级FP8 Tensor Core加速单元。在FP8精度下,其单卡AI稠密算力最高为1000TFLOPS。产品提供液冷和风冷两种形态,液冷版AI算力为1000 TFlops,风冷版为920 TFlops。MTT S5000配备80GB显存,显存带宽为1.6TB/s,卡间互联带宽为784GB/s。产品遵循OAM标准设计。摩尔线程亦推出了搭载8颗MTT S5000的MGX 8-GPU模块化平台和MCCX D800 X2一体化AI服务器。

核心技术

  MTT S5000基于第四代MUSA架构“平湖”打造,是一款全功能GPU,单芯片集成了AI计算、图形渲染、科学计算、超高清视频编解码能力。

  MTT S5000在集群通信层面采用ACE(异步通信引擎)技术,将复杂通信任务从计算核心卸载,实现计算与通信的并行,以提升模型算力利用率(MFU)和训练效率。

  为了适配大模型训练中多样化的计算负载,MTT S5000对Tensor Core(张量计算核心)与Vector Core(向量计算单元)进行了配置与协同优化。

  MTT S5000采用硬件级可信执行环境,并从芯片级到系统级构建了完整的RAS(可靠性、可用性、可维护性)体系。依托MUSA全栈平台,MTT S5000实现了对CUDA语法的高度兼容,支持开发者的应用迁移。

发展历程

  MTT S5000推出后,其规模化量产和集群部署与公司营收增长相关,根据公司财报,2025年营收同比增长243.37%。2026年3月,摩尔线程获得一笔价值6.6亿元的订单。

  基于MTT S5000搭建的夸娥万卡集群已落地并上线服务,其浮点运算能力达到10EFLOPS,支持万亿参数大模型训练。

  在实际应用层面,MTT S5000应用于多个领域:在智驾仿真领域,与五一视界合作,其SimOne 4.0平台已在MTT S5000上完成适配;在AI科研领域,智源研究院基于MTT S5000千卡集群完成了具身大脑模型RoboBrain 2.5的端到端训练验证;在科学计算领域,通过与国家级实验室合作,在SPONGE模拟引擎、分子对接工具DSDP等应用中实现了性能提升。

  2026年3月25日至29日,在北京举行的2026中关村论坛年会“人工智能+”展区,摩尔线程展示了包括MTT S5000在内的全栈自主算力解决方案。

  此外,MTT S5000具备生态兼容性和模型适配能力,在2026年春节前后,已完成对GLM-5、MiniMax M2.5、Kimi K2.5及Qwen3.5等大模型的适配。2026年3月,MTT S5000在智源FlagOS平台上完成Qwen3-0.6B模型的全要素训练验证,连续6天无中断稳定训练,并在下游任务评测中较行业标杆基线提升1.65个百分点。

  2026年4月12日获悉,摩尔线程AI训推一体全功能GPU MTT S5000已完成对新一代大模型MiniMax M2.7的Day-0极速适配。

  摩尔线程技术团队基于MUSA架构(元计算统一系统架构),针对MiniMax M2.7的模型特点完成深度调优,在MTT S5000上实现模型的高性能推理。

  摩尔线程AI完成Day-0适配6小时前
  4月12日,摩尔线程AI训推一体全功能GPU MTT S5000已完成对新一代大模型MiniMax M2.7的Day-0极速适配。M2.7是业界首个具备深度自我进化能力的大模型,S5000依托80GB显存、1.6TB/s高带宽及PD分离架构,配合高效KV Cache管理,支撑MiniMax M2.7长时间、多步骤任务的稳定执行。
本文转载自百度百科, 作者:百度百科, 原文标题:《 MTT S5000 》, 原文链接: https://baike.baidu.com/item/MTT%20S5000/67553280。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐
点击立即订阅