本文作者:访客

最前线报道,最新动态与深度解析

访客 2025-11-26 10:06:38 24351 抢沙发
本文报道的是最新的消息和动态,涉及各个领域的前沿信息,文章关注全球最新趋势,提供及时、准确的资讯,让读者了解最新发展,掌握最前沿的动态,内容涵盖科技、经济、文化等多个领域,旨在为读者带来最新的“前线”信息。

文|富充

编辑|苏建勋

当前,“算力不够用”和“算力被浪费”正在同时发生。

36氪获悉,近日举行的2025AI容器应用落地与发展论坛上,华为公司正式发布AI容器技术——Flex:ai,通过三项技术创新提升算力资源利用率。同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,共同开源此项产学合作成果。

本次发布并开源的XPU池化与调度软件Flex:ai,是基于Kubernetes(一个广泛使用的容器管理平台)构建。简单理解,它通过对GPU、NPU等智能算力资源的精细化管理与智能调度,一边把零散的算力统一成“资源池”,一边把不同规模的 AI 任务智能分配进去。

具体而言,Flex:ai 主要有三项核心能力:

在解决小模型训练推理场景资源浪费方面,华为与上海交通大学联合研发的XPU池化框架,将单张GPU或NPU算力卡按10%的精度切分为多个虚拟算力单元,实现“用多少,切多少”,使此类场景下的整体算力平均利用率提升30%;

为了将集群里不同机器上的空闲算力聚合起来,华为与厦门大学研发的跨节点拉远虚拟化技术,把集群内各节点的空闲XPU算力聚合形成“共享算力池”,让不具备智能计算能力的通用服务器也能通过网络调用远端GPU/NPU资源参与AI计算;

面对算力集群中多品牌、多规格异构算力资源统一调度的挑战,华为与西安交通大学共同推出的Hi Scheduler智能调度器,能够感知集群里多品牌、多规格算力资源的状态,根据任务优先级、算力需求等参数,自动选择合适的本地或远端资源,实现分时复用和全局最优调度,让系统决策“哪块卡该干哪份活”。

华为表示,此次Flex:ai的全面开源,将向产学研各界开发者开放所有核心技术能力,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案。

文章版权及转载声明

作者:访客本文地址:https://nbdnews.com/post/6091.html发布于 2025-11-26 10:06:38
文章转载或复制请以超链接形式并注明出处NBD财经网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,24351人围观)参与讨论

还没有评论,来说两句吧...