众力资讯网

重磅!海光开放CPU内核能力,击穿智算产业协同壁垒!

重庆智博会惊现算力产业“破壁者”。近日,海光依托国家先进计算产业创新中心AI计算开放架构联合实验室,正式宣告开放CPU内

重庆智博会惊现算力产业“破壁者”。

近日,海光依托国家先进计算产业创新中心AI计算开放架构联合实验室,正式宣告开放CPU内核能力,通过向产业链伙伴提供直连IP、开放协议及定制化指令集,击穿国产CPU与AI芯片协同壁垒,为智算产业开放式创新扫清阻碍。

国产CPU能力开放,AI算力生态协同突围

伴随着国产芯片路线多头并进,算力体系离散化、孤岛化问题日趋严峻。面对大模型应用纷繁复杂的场景需求,如何统一计算资源池实现高效易用的算力供给,成为AI时代重要课题。

业内人士指出,当前国产GPU各家在架构设计、互联协议、性能特点上各有所长。有的擅长高并发推理,有的专精大规模训练,有的则在能效比上表现突出。再包含各大CPU产品在内,要整合这些差异化算力难度极大,需要以更开放的理念打破“技术墙”、“生态墙”。

作为AI计算的重要基座,通用处理器CPU正在AI芯片之间起到重要的纽带链接作用。据悉,海光此次率先开放CPU能力,目的即在于实现与国内AI芯片的高效衔接,推动应用顺畅对接与调用,进而释放出多路线格局下国产大算力体系的真正潜力。

比如依靠海光CPU提供的定制化指令集,大模型推理、自动驾驶计算、生物医学模拟等AI应用可以得到深度优化,而CPU也将由单纯的通用计算单元,转化为可编程、可适配的智能调度中心,为终端应用高效配给更好用适用的算力支持。

有行业媒体举例说明,海光此举相当于构建了一个以自主CPU为底座的算力联盟。国产AI芯片公司如昆仑芯、摩尔线程等,将能够更顺畅地与海光CPU对接,形成系统级解决方案。原本分散的算力资源被打通成统一池子,利用率将得到显著提升,同时成本有望下降。

“这不仅解决了传统CPU和AI芯片各自为政的产业化难题,更意味着中国自主AI生态从单点突破迈入整体推进阶段。”上述媒体表示。

芯片选择权交还用户,激活智算产业创新动能

对于国内算力用户来说,拉通国产CPU与AI芯片资源池,也代表着芯片产品选择范围更加广泛,整体适配成本进一步压缩,长远来看,无疑也将促进智算产业的系统化创新。

根据市场反馈,过去采用不同品牌的计算卡,调度异构算力时需要大量的适配优化工作,开发前置动作非常冗余。若能基于国产CPU实现AI算力的协同调配,则仅需在统一框架下进行开发,产品研发周期将明显缩短。

此外,用户绑定单一芯片路线也将成为过去式。比如在智慧城市、医疗影像、智能制造、大模型训练等高性能计算场景中,企业通过异构算力协同支持,可以选择更经济、更灵活的计算服务,避免了由于兼容问题而“必须选择谁的芯片”,供需两侧将达到一个更佳平衡。

可以看出,国产CPU与AI芯片形成高效衔接后,算力供给与用户场景也打通了最短路径。当千行百业的多元化计算需求,可以即时按需匹配到对应的算力支持,也更有助于AI用户在快速迭代的技术浪潮下占据先机。

业内普遍认为,海光CPU能力开放是一个重要转折点,随着国产AI芯片形成算力体系联动,不仅有望进一步提升系统级资源利用效率,优化多样化应用场景性能,同时也将加快开放协同的国产AI算力生态建设,为我国智能计算产业创新发展注入新动能。