智算多多



过去两年,AI大模型的训练与推理需求呈指数级增长,数据中心网络从“南北流量”为主,转向“东西流量”主导。传统基于电交换(Ethernet / InfiniBand)的架构,在带宽、功耗与时延上的瓶颈日益显现。
在这样的背景下,OCS(Optical Circuit Switching,光电路交换)开始被重新审视,并迅速成为算力网络升级的重要方向之一。
简单来说:
本质差异在于:是否通过光层直接完成连接。
在AI集群规模突破万卡甚至十万卡后,OCS带来的低时延、高带宽、低功耗优势,正在从“实验室技术”走向“产业化落地”。
OCS的核心在于通过光开关矩阵,在节点之间建立端到端光路径(Lightpath)。
OCS系统主要包括:
其运行逻辑:
这一过程避免了多次光电转换。
| 维度 | 电交换(EPS) | OCS |
|---|---|---|
| 转发方式 | 分组交换 | 电路交换 |
| 时延 | 高(逐跳) | 极低 |
| 功耗 | 高 | 显著降低 |
| 带宽利用率 | 受限 | 高 |
| 灵活性 | 高 | 相对较低 |
结论很明确:
👉 电交换适合“碎片流量”👉 OCS适合“大规模、长时间、固定流量”
而AI训练,恰恰属于后者。
OCS并非新技术,但过去十年一直未能规模落地,原因主要有三点:
传统互联网业务流量:
OCS优势难以体现。
但AI训练流量具有:
👉 与OCS高度匹配
过去限制OCS发展的核心瓶颈是:
随着以下技术突破:
OCS开始具备商用条件。
AI数据中心的三大成本:
OCS可显著降低:
👉 成为降本的重要路径
OCS产业链可以分为四大层:
包括:
核心壁垒:工艺 + 材料 + 封装
👉 价值占比高,国产替代空间大
包括:
👉 属于“光路基础设施”
这是产业链的“心脏”。
主要技术路线:
关键指标:
👉 技术门槛极高,是产业链最核心环节
OCS系统仍需光模块完成电光转换:
包括:
👉 软件定义能力成为竞争关键
OCS主要应用场景:
负责:
OCS的终极驱动力来自:
很多投资者容易混淆:
两者关系如下:
| 技术 | 作用 |
|---|---|
| OCS | 网络层架构 |
| CPO | 芯片级互连 |
👉 不是替代关系,而是协同关系
未来趋势:
从:
👉 网络扁平化趋势明显
优势:
👉 未来OCS与硅光深度融合
传统结构:
未来可能演变为:
👉 “光直连 + 少层级交换”
以下为当前市场关注度较高的相关标的(按产业链划分):
以下公司具备向OCS延伸的能力:
受益逻辑:
👉 业绩兑现最明确
受益逻辑:
👉 长期空间最大
受益逻辑:
👉 属于“主题级机会”
如果说过去十年数据中心的核心是“算力提升”,那么未来十年的关键在于:
👉 “算力如何高效连接”
OCS的意义,不只是一个技术升级,而是:
在AI时代,“连接效率 = 算力效率”。
而OCS,正是这一逻辑下最重要的变量之一。
一句话总结:
👉 CPO决定“芯片怎么连”,OCS决定“算力怎么跑”。
在这场算力革命中,OCS或许不是最耀眼的主角,但很可能是最关键的“底层基础设施”。