11月21日下午,华为在上海举办“2025 AI容器应用落地与发展论坛”,会上正式发布并开源了创新AI容器技术Flex:ai。值得一提的是,这项技术并无生态限制,英伟达的GPU和华为昇腾NPU等算力卡都可以使用。
目前,行业内算力资源的平均利用率仅为30%至40%,据介绍,Flex:ai通过算力切分技术,将单张GPU(图形处理器)/NPU(神经网络处理器)算力卡切分为多份虚拟算力单元,切分粒度精准至10%。此技术实现了单卡同时承载多个AI工作负载,在无法充分利用整卡算力的AI工作负载场景下,算力资源平均利用率可提升30%。
此外,与英伟达旗下Run:ai只能绑定英伟达算力卡不同,华为AI容器技术Flex:ai通过软件创新,可实现对英伟达、昇腾及其他第三方算力资源的统一管理和高效利用,有效屏蔽不同算力硬件之间的差异,为AI训练推理提供更高效的资源支持。
谈及为什么推出Flex:ai AI容器技术,华为公司副总裁、数据存储产品线总裁周跃峰表示,传统容器技术已无法完全满足AI工作负载需求,AI时代需要AI容器。
据介绍,与英伟达今年年初收购的Run:ai公司的核心产品相比,华为Flex:ai在虚拟化、智能调度等方面具备独特优势。