华为AI新技术揭晓!英伟达曾花50亿收购“同款”

:memo: 作者: 科创板日报记者 黄心怡| :date: 发布时间:2025-11-21 20:14:01

:rocket: 华为发布Flex:ai,开源AI容器技术,剑指算力利用率难题!:rocket:

摘要: 华为正式发布并开源AI容器技术Flex:ai,该技术旨在解决AI产业发展中日益突出的算力资源利用率低下的问题。通过XPU池化、跨节点虚拟化和智能调度等技术,Flex:ai大幅提升算力利用率,并促进通用算力与智能算力资源融合,推动AI平民化。


在2025AI容器应用落地与发展论坛上,华为公司副总裁周跃峰博士正式发布AI容器技术——Flex:ai。同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,将此项产学合作成果向外界开源。

本次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的匹配,可大幅提升算力利用率。

当前,AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显。

业内人士指出,行业内算力资源的平均利用率仅为 30%至40%,甚至低于30%。小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态。 如何唤醒并高效利用算力集群资源,成为整个行业一大难题。

容器技术作为一种轻量级虚拟化技术,可以将模型代码、运行环境等打包成一个独立的、轻量级的镜像,实现跨平台无缝迁移。容器还可以按需挂载GPU、NPU算力资源,按需分配和回收“资源”,提升集群整体资源利用率。

Gartner的分析师预测,到 2027年,75%以上的AI工作负载将采用容器技术进行部署和运行。

在AI容器领域,业界已经有多家企业推出了不同产品。此前,英伟达7亿美元 (约合人民币 49.7亿元) 收购了以色列AI公司Run:ai。这家公司核心产品,正是基于kubernnetes构建的软件平台,用于调度GPU的计算资源,通过动态调度、池化、分片等技术,实现GPU资源利用率的优化,让深度学习训练与推理任务在企业级环境中高效运行。

本次华为发布并开源的Flex:ai XPU池化与调度软件,与Run:ai公司的核心产品相比,在虚拟化、智能调度等方面实现了突破。

  • XPU池化框架: 华为与上海交通大学联合研发,可将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精准至 10%。这一技术实现了单卡同时承载多个AI工作负载,且通过弹性灵活的资源隔离技术,可实现算力单元的按需切分,“用多少,切多少”,使此类场景下的整体算力平均利用率提升 30%,提高单卡服务能力。

  • 跨节点拉远虚拟化技术: 华为与厦门大学联合研发,将集群内各节点的空闲XPU算力聚合形成“共享算力池”,为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。

  • Hi Scheduler智能调度器: 华为与西安交通大学共同打造,可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。

周跃峰介绍,Flex:ai的发布主要希望推动AI平民化,解决小集群GPU/NPU利用和调度难题,将一张卡虚拟化成多张卡,以更小的算力单元进行调度,让每一张卡的算力能力能够充分释放出来。

Flex:ai将在发布后同步开源在魔擎社区中。华为还希望通过开源推动形成以AI容器技术为载体的资源高效利用新范式,与产学研各界开发者共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案。


结论: Flex:ai的发布和开源是华为在AI领域的重要一步,有望通过技术创新和开源协作,有效解决算力利用率低下的行业痛点,推动AI技术更广泛的应用和发展。 :rocket:

:light_bulb: 延伸阅读
原文链接