

这次2026海光基础软件生态高峰论坛,行业关注的重点普遍跟以前不太一样。往年参加类似会议,习惯性先翻参数、对标跑分;这次在郑州,通篇是关于软硬协同与异构调度的具体打法。核心圈的信息透露出一个很明确的转向:AI供应链的竞争,已经从“峰值算力的单点资源”让位给了“系统级有效算力”。
如果说过去的AI算力竞赛是一场拼命曝光峰值参数的资源比拼,那这次闭门会上,议题重心完全落在了“系统效率”上。
整场闭门会几乎把国内云厂商、操作系统、头部数据库和大模型公司的核心决策层全部聚齐了,议题直指“全栈软硬协同”和“异构调度优化”。会上传递的关键信息非常集中:再强的芯片参数,如果没有细腻的软件栈去解耦碎片化的异构算力,最终都会陷入“忙不过来、算不出去、迁移不过来”的尴尬。

正如此前海光在春季技术沟通会上发布的DCU软件栈年度版本所言,仅仅把数万张DCU堆起来还远远不够,真正决定集群稳定性的,是算子调优、编译优化和通算融合等基础软件层面的“毫厘之争”——在MLPerf等多项测试中,正是这些底层软件打磨支撑了10万亿参数模型的稳定运行(DTK 26.04提供完整成熟的计算库,DAS 1.8集成超2000个算子,支持100+主流AI框架)。换言之,基础软件生态的深度,决定了算力底座的真实上限。
行业正从过去疯狂的“单卡跑分内卷”走出,转向对“超节点互联”和“异构调度”的务实考虑。以最近在郑州完成部署的中科曙光scaleX万卡超集群为例,如果只是傻堆硬件无法啃下万亿参数的复杂诉求,底层关键在于开放架构设计,不仅兼容主流软件生态,还能支持国产芯片的多品牌混用,攻克高速互联与存算协同等关键技术。
而最近几次动作上,这种“全栈协同”的思想路径通过光合组织的多层级配套被进一步巩固——从自研HSL开放总线协议的标准化定义,到DTK、DAS、DAP基础软件栈的全面开放,再到AI计算开放架构联合实验室“3年投入超10亿元”的研发动作,全产业的精力都扑在了解决国产智算服务器适配难、异构算力兼容差、基础软件栈缺失这三大顽疾上。
没有细腻的基础软件去打通全线接口,再强大的单一硬件也只能是一堆高硅含量的砖头。一旦基础软件生态被层级打通,异构算力能够按需流动,国产AI的算力才能跳出单一赛道的寒碜对比,进入系统化组装、极致化效能的时代。
从“堆参数”走向“磨系统”,从“单点比高低”转向“生态圈比效率”——这就是这场论坛揭示的深层信号,也是国产算力区别于海外封闭模式的想象力所在。