智算多多
首页
智算服务
智算服务
统一调度 GPU/HPC 等算力,智能管理裸金属与一体机,开箱即训、高效安全,为 AI 训练与推理提供澎湃动力。
算力中心
统一调度、智能管理,提供高效算力服务
即将开放,敬请期待!
裸金属服务器
高性能、高安全的云上物理服务器
一体机
开箱即用的 AI 开发平台
AI 生态大厅
AI 生态大厅
AI 生态大厅让算力生数据、数据训模型、模型反哺算力,打造 AI 生态闭环。
算力资源
统一调度算力,智能管理裸金属与一体机,开箱即训、高效安全
数据集
跨领域、多模态、高质量,即取即用快速满足算法训练推理
AI 模型
一键部署、弹性扩容、API 即调,零门槛落地 AI 应用
算力商情
政策资讯
合作与生态
场景方案
关于我们
联系我们
政策资讯
政策脉动即时洞察,护航AI全栈合规生长
全部
每日快讯
政策法规
行业科普
行业动态
技术突破
应用案例
学术研究
其他
07
04
2026
智元开源具身数据集AGIBOT WORLD 2026,让数据采集走进真实世界
在计算机视觉领域,“ImageNet时刻” 的出现曾经改变了一切。它不仅提供了数据,更定义了一个时代的研究范式。今天,具身智能同样站在这样的临界点上。2024年末,智元发布具身智能行业首个百万真机数据集AGIBOT WORLD时,我们尝试为这个领域提供一个新的起点。而现在,随着研究不断深入,新的需求也变得更加明确:研究者和...
查看详情
07
04
2026
商汤:以多模态大模型突破,引领AI智能新高度
商汤科技作为国内AI领军企业,持续深耕多模态大模型技术研发,推出“日日新SenseNova”系列模型,在2025年实现多项突破:V6.5版本登顶OpenCompass全球多模态评测榜首,首创“图文交错思维链”能力;发布开源原生多模态架构NEO,显著降低算力与数据需求;在长视频理解、推理能力等方面领先国际主流模型。同时,商汤推动技术落地,通过“小浣熊家族”“Seko”等AI Agent产品赋能办公、金融、内容创作等领域,服务超1500万用户。依托“算力-大模型-应用”三位一体战略和SenseCore大装置,商汤夯实技术底座,2025年生成式AI业务收入超36亿元,占比超70%,彰显中国AI自主创新实力,持续引领产业高质量发展。
查看详情
07
04
2026
龙虾如何控制安卓app
龙虾如何控制安卓app“龙虾”(OpenClaw开源AI智能体)控制安卓App主要通过云端部署与任务执行框架实现,核心方式包括百度红手指Operator、阶跃AI的StepClaw及通用技术路径,具体如下:百度红手指Operator:云端任务
查看详情
07
04
2026
云网融合3.0:Spine-Leaf架构下的一跳入算泛在接入能力
数字化转型浪潮,云网融合已成为支撑千行百业智能化升级的核心基础设施。中国电信提出的云网融合3.0战略,以Spine-Leaf架构为物理底座,通过“一跳入算”技术实现算力资源的泛在接入,将传统网络从单纯的数据通道升级为“连接+算力+存储”三位一体的智能服务底座。本文将从架构原理、技术突破、应用场景三个维度,解析这一技术体系的创新价值。
查看详情
07
04
2026
从具身智能到低空经济,6G关键技术“沿途下蛋”
中国科学院院士、紫金山实验室主任尤肖虎在发布会上表示:“这些解决方案是6G技术走向产业落地的重要一步。“6G绝非5G的简单迭代升级,而是实现空天地一体化、通感算智深度融合,并后向兼容5G。紫金星宇作为紫金山实验室6G技术生态成员之一,近年来围绕6G关键技术进行概念验证与产品研发,加速6G产业化进程。”吴建军表示,团队将推动6G技术工程化、产品商用化、生态开放化,为工业智能体、低空经济、卫星互联网及机器人、具身智能等战略性新兴产业及未来产业注入强劲动力。
查看详情
07
04
2026
爱士惟申请基于光伏行业垂域大模型的BOM分析系统专利,优化BOM多态存储模块的权重配置
爱士惟申请基于光伏行业垂域大模型的BOM分析系统专利,优化BOM多态存储模块的权重配置,专利,光伏,大模型,bom,爱士惟
查看详情
07
04
2026
Meta 自研 AI 推理芯片:四代路线图深度解读
来源:芝能汽车 Meta 在AI领域有些豪赌的意味,花了好几年时间,专心做推理芯片,基于 RISC-V 架构的、模块化的、可以快速迭代的推理芯片。
查看详情
07
04
2026
告别环境配置烦恼:PyTorch 2.8深度学习镜像一键部署,实测RTX 4090D性能
该文章介绍了开箱即用的PyTorch 2.8镜像,支持大模型推理、视频生成、训练、微调及二次开发,无环境冲突,兼容从计算机视觉到自然语言处理的全场景需求。基于生产级驱动(550.90.07)和验证过的软件组合,确保稳定可靠。用户可直接从镜像市场获取,无需手动安装驱动或框架,大幅节省配置时间。文中还提供了验证CUDA环境及GPU信息的Python代码示例,并展示了一键获取完整项目代码的方式。
查看详情
07
04
2026
AI训练的最大障碍不是算力,而是“内存墙”
AI训练的最大障碍不是算力,而是“内存墙”,摘要:FlashAttention通过优化内存访问显著提升Transformer模型性能。传统注意力机制需要存储O(L²d)的中间矩阵,而FlashAttention采用分块计算技术,直接在SRAM中完成运算,避免存储完整注意力矩阵。其核心创新包括:1)分块处理长序列;2)融合操作减少内存访问;3)特殊数值稳定性处理。实验显示,在A100上处理8192长度序列时,内存访问减少97%,推理速度提升显著。当前已发展出FlashAttention-2等优化版本,并可通过xFormers等库轻松集成。这项技术突破了
查看详情
07
04
2026
LoRA:大模型微调的革命性技术!
LoRA:大模型微调的革命性技术!LoRA(低秩适配)是一种参数高效的微调技术,通过训练少量低秩矩阵实现大模型微调,显著降低内存需求并提高训练速度,同时不引入推理延迟。LoRA的核心思想与优势参数高效性:LoRA仅训
查看详情
共 336 条
6
7
8
9
10
前往
页