众力资讯网

华为AI新突破:单卡承载多任务,算力利用率翻倍

2025年11月21日,华为发布Flex:ai AI容器软件,通过“算力切分”技术,将单张GPU/NPU卡拆分为最小10

2025年11月21日,华为发布Flex:ai AI容器软件,通过“算力切分”技术,将单张GPU/NPU卡拆分为最小10%粒度的虚拟算力单元,实现单卡同时运行多个AI任务。这一创新使硬件利用率从行业平均30%-40%跃升至70%,并开源代码以推动技术共享。

11月21日 华为发布Flex:ai AI容器软件

技术突破:从“独占整卡”到“共享算力”

Flex:ai的核心是“算力切分”与“共享算力池”。传统AI任务通常独占整张显卡,导致小模型训练或推理场景下资源闲置。而Flex:ai通过软件层将单卡切分为多个虚拟单元(最小10%),允许不同任务并行运行。例如,一张A100 GPU可同时服务3个中等规模模型训练任务,显著提升硬件效率。

更值得关注的是其“共享算力池”功能。该技术可聚合集群中各节点的空闲XPU(GPU/NPU)算力,形成统一资源池,动态分配给高优先级任务。据华为官方数据,这一设计使集群整体算力利用率提升30%,并降低30%的硬件采购成本。

行业意义:破解算力荒的“软件解法”

当前,全球AI算力需求激增,但利用率低的问题长期存在。麦肯锡《2025年AI算力报告》指出,企业AI硬件平均利用率不足40%,大量算力“休眠”在通用服务器中。Flex:ai通过“软件定义算力”,不仅优化了现有资源,还兼容英伟达、昇腾等多种异构硬件,解决了多品牌算力难以统一调度的痛点。

与英伟达此前收购的Run:ai类似,Flex:ai均基于Kubernetes构建,但后者仅支持英伟达GPU,而华为技术覆盖更广泛的硬件生态。这一差异化优势,使其在国产化替代与多云环境中更具竞争力。

开源生态:推动AI平民化

Flex:ai同步开源至魔擎社区,开发者可直接调用其API接口与主流深度学习框架(如PyTorch、TensorFlow)对接。华为公司副总裁周跃峰表示,此举旨在推动“以软件补硬件”的理念,降低中小企业AI部署门槛。

Flex:ai的发布标志着AI算力管理从“粗放独占”转向“精细共享”。在算力成本高企的当下,这种通过软件释放硬件潜力的创新,或将重塑AI开发范式。未来,随着开源社区的完善,更多行业有望以更低成本实现智能化升级,真正实现“AI平民化”。