hami 社区在 v2.7.0 版本中正式上线了面向 nvidia gpu 的 拓扑感知调度 功能。该功能旨在应对高性能计算(hpc)与 ai 大模型训练中的多卡通信瓶颈,通过智能任务调度机制,将计算负载精准部署到物理连接最优、通信延迟最低的 gpu 组合上,显著提升任务执行效率和集群整体算力利用率。本文将在介绍功能亮点的基础上,深入源码层面,全面解析 hami 实现 nvidia gpu 拓扑感知调度的设计思路与关键技术。
Fit 函数内置优化逻辑,针对不同类型的 GPU 请求——无论是多卡并行任务还是单卡独立任务——自动启用“最佳匹配”与“最小破坏”两种策略,兼顾短期性能最大化与长期资源可用性。HAMi 的拓扑感知调度机制遵循“先量化、再决策”的设计范式:首先在节点侧将复杂的硬件拓扑结构转化为标准化的数值评分;随后由调度系统结合这些评分做出最优分配决策。  整个流程分为两个关键阶段:拓扑注册 和 调度决策。
 整个流程分为两个关键阶段:拓扑注册 和 调度决策。
阶段一:拓扑注册 —— 将物理连接数字化
目标是将隐藏于硬件层的 GPU 互连关系,转换为软件可识别的数字指标。
SingleNVLINKLink 计 100 分,P2PLinkCrossCPU 计 10 分),算法遍历该图谱,为任意两块 GPU 之间生成一个综合通信能力得分。阶段二:调度决策 —— 智能选择最优设备组合
当调度器需要为 Pod 分配 GPU 资源时,会将请求转发给设备端的 Fit 函数,并携带当前节点的“通信分表”进行辅助判断。
Fit 函数首先排除不满足显存、算力等基础条件的 GPU。拓扑感知的核心在于准确捕捉设备间的真实连接状态,并将其转化为可参与调度决策的数值。整个过程由 Device Plugin 在本地完成。
拓扑图构建 ( build() function):
主要逻辑位于 pkg/device/nvidia/calculate_score.go 中的 build() 函数。它并非简单生成邻接矩阵,而是:
DeviceList,每个 Device 包含一个空的 Links 映射(map[int][]P2PLink)。(d1, d2),调用 GetP2PLink 与 GetNVLink(定义于 links.go)获取连接详情。P2PLink 结构体形式追加至对应设备的 Links 字段中,从而在内存中构建出完整的拓扑网络。通信分数计算 ( calculateGPUPairScore() function):
在拓扑图建立后,calculateGPUScore 调用 calculateGPUPairScore 将连接关系量化为具体分数。
switch 分支累加得分。例如:P2PLinkSameBoard 加 60 分,SingleNVLINKLink 加 100 分,TwoNVLINKLinks 加 200 分,最终返回总和作为两者通信质量评分。// File: pkg/device/nvidia/calculate_score.go
func (o *deviceListBuilder) build() (DeviceList, error) {
        // ...
        // 1. 初始化扁平化 DeviceList
        var devices DeviceList
        for i, d := range nvmlDevices {
                // ... create device object ...
                devices = append(devices, device)
        }
        // 2. 遍历并填充 Links map
        for i, d1 := range nvmlDevices {
                for j, d2 := range nvmlDevices {
                        if i != j {
                                // 获取并追加 P2P Link 信息
                                p2plink, _ := GetP2PLink(d1, d2)
                                devices[i].Links[j] = append(devices[i].Links[j], P2PLink{devices[j], p2plink})
<pre class="brush:php;toolbar:false;"><pre class="brush:php;toolbar:false;">                            // 获取并追加 NVLink 信息
                            nvlink, _ := GetNVLink(d1, d2)
                            devices[i].Links[j] = append(devices[i].Links[j], P2PLink{devices[j], nvlink})
                    }
            }
    }
    return devices, nil}
func calculateGPUPairScore(gpu0 Device, gpu1 Device) int { score := 0 for _, link := range gpu0.Links[gpu1.Index] { switch link.Type { case P2PLinkCrossCPU: score += 10 // ... (etc) ... case SingleNVLINKLink: score += 100 // ... (etc) ... } } return score }
核心调度逻辑实现在 pkg/device/nvidia/device.go 的 Fit() 函数中。当检测到启用了拓扑感知策略后,会根据请求的 GPU 数量切换不同的优化路径。
// File: pkg/device/nvidia/device.go
func (nv *NvidiaGPUDevices) Fit(...) {
// ...
needTopology := util.GetGPUSchedulerPolicyByPod(device.GPUSchedulerPolicy, pod) == util.GPUSchedulerPolicyTopology.String()
// ...</p><pre class="brush:php;toolbar:false;"><pre class="brush:php;toolbar:false;">    // 过滤出符合资源要求的空闲 GPU (tmpDevs)
    // ...
    if needTopology {
            if len(tmpDevs[k.Type]) > int(originReq) {
                    if originReq == 1 {
                            // 单卡任务:采用“最小破坏”策略
                            lowestDevices := computeWorstSignleCard(nodeInfo, request, tmpDevs)
                            tmpDevs[k.Type] = lowestDevices
                    } else {
                            // 多卡任务:采用“最佳匹配”策略
                            combinations := generateCombinations(request, tmpDevs)
                            combination := computeBestCombination(nodeInfo, combinations)
                            tmpDevs[k.Type] = combination
                    }
                    return true, tmpDevs, ""
            }
    }
    // ...}
Fit 函数的整体调度流程如下图所示:
策略一:多卡任务 —— “最佳匹配”优先
对于请求多个 GPU 的任务,目标是选出内部通信总分最高的设备组合。
generateCombinations 枚举所有可能的设备组合。computeBestCombination 遍历各组合,基于“通信分表”计算每组内所有设备对之间的分数总和。其核心逻辑示意图如下:
策略二:单卡任务 —— “最小破坏”优先
对于仅申请一块 GPU 的任务,策略转为保护整体拓扑完整性,避免占用关键连接节点。
computeWorstSignleCard 函数。其核心逻辑示意如下:
用户只需添加一条 Annotation 即可激活拓扑感知调度功能,系统将根据请求的 GPU 数量自动应用相应策略。
apiVersion: v1 kind: Pod metadata: name: gpu-topology-aware-job annotations:</p><h1>启用拓扑感知调度</h1><pre class="brush:php;toolbar:false;"><pre class="brush:php;toolbar:false;">hami.io/gpu-scheduler-policy: "topology-aware" # 系统将自动: # - 为多卡任务选择通信最优的 GPU 组合 # - 为单卡任务选择对拓扑影响最小的设备
spec: containers:
<code>nvidia.com/gpu: "4"</code></pre><h3>五、总结</h3><p>HAMi 实现的 NVIDIA GPU 拓扑感知调度,展现了清晰而前瞻的工程设计理念:<strong>以动态感知替代静态配置,以全局优化取代局部贪心</strong>。设备端集成的双策略寻优算法,在消费预先计算的“通信分数”基础上,既保障了单个任务的极致性能表现,又维护了集群资源的长期可用性与调度灵活性。这一机制为云原生环境下大规模 AI 训练与科学计算任务提供了强有力的底层支持。</p><hr /><p><strong>参考资料</strong> </p><ul><li><strong>设计文档</strong>:NVIDIA GPU Topology Scheduler </li><li><strong>使用文档</strong>:NVIDIA GPU 拓扑调度启用指南 </li><li><strong>相关 PRs</strong>: <ul><li><a href="https://github.com/Project-HAMi/HAMi/pull/1018">https://github.com/Project-HAMi/HAMi/pull/1018</a> </li><li><a href="https://github.com/Project-HAMi/HAMi/pull/1028">https://github.com/Project-HAMi/HAMi/pull/1028</a> </li></ul></li></ul><p>再次诚挚感谢社区贡献者 @lengrongfu、@fyp711 对本特性的开发与推动!</p>
以上就是【原理解析】HAMi × NVIDIA | GPU 拓扑感知调度实现详解的详细内容,更多请关注php中文网其它相关文章!
 
                        
                        每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
 
                Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号