
在数据处理和机器学习任务中,我们经常需要在一个大型张量(例如张量a)中查找另一个张量(例如张量b)中所有元素的出现位置。具体来说,给定张量a([1,2,3,3,2,1,4,5,9])和张量b([1,2,3,9]),我们的目标是为b中的每个值,找到它在a中出现的所有索引。理想的输出形式类似于 [[0,5], [1,4], [2,3], [8]],其中每个子列表对应b中一个值的索引。
直接使用PyTorch的广播机制,例如通过扩展维度创建布尔掩码 (B == A_expanded),虽然能够实现功能,但对于非常大的张量A和B,这种操作会消耗巨大的内存,导致程序崩溃或运行效率低下。因此,我们需要寻找内存效率更高、同时保持合理计算性能的解决方案。
最初的尝试往往会利用PyTorch强大的广播能力。例如,以下代码片段展示了通过扩展维度进行广播的方法:
import torch
def vectorized_find_indices_broadcasting(A, B):
# 扩展A的维度以与B进行广播比较
# A_expanded 的形状将是 (A.size(0), 1, 1)
A_expanded = A[:, None, None]
# 创建布尔掩码,形状为 (A.size(0), B.size(0), 1)
# mask[i, j, k] 为 True 表示 A[i] == B[j]
mask = (B == A_expanded)
# 获取匹配的索引。这里会生成一个形状为 (A.size(0), B.size(0), 1) 的张量
# 其中对应 True 的位置是A的索引,False 的位置是 -1
indices = torch.where(mask, torch.arange(A.size(0), device=A.device)[:, None, None], torch.tensor(-1, device=A.device))
# 调整结果形状,使其更符合期望的输出结构
# 最终形状可能需要进一步处理以得到 [[idx1, idx2], ...] 形式
result = indices.permute(1, 2, 0)
return result
# 示例
A = torch.tensor([1,2,3,3,2,1,4,5,9])
B = torch.tensor([1,2,3,9])
# result_broadcasting = vectorized_find_indices_broadcasting(A, B)
# print(result_broadcasting)尽管上述方法在逻辑上是“完全向量化”的,但其核心问题在于 mask 张量和 indices 张量的大小会急剧增加,其维度通常是 (len(A), len(B), ...)。当 len(A) 和 len(B) 都非常大时,即使是中间结果也会轻易耗尽可用内存,使得这种方法不适用于大规模张量。
为了克服纯广播的内存限制,我们可以采用一种混合方法:首先利用有限的广播操作找出所有匹配的索引对,然后通过Python循环将这些索引对归类到对应的张量B元素下。这种方法在内存和计算效率之间找到了一个较好的平衡点。
import torch
def find_indices_hybrid(a, b):
# 1. 找出所有匹配的 (A_index, B_index) 对
# a.unsqueeze(1) 将 a 变为 (len(a), 1)
# (a.unsqueeze(1) == b) 广播为 (len(a), len(b)) 的布尔张量
# .nonzero() 返回所有 True 值的坐标,形状为 (K, 2),其中 K 是匹配总数
# 每行 (a_idx, b_idx) 表示 a[a_idx] == b[b_idx]
overlap_idxs = (a.unsqueeze(1) == b).nonzero()
# 2. 初始化结果列表,为B中每个元素准备一个空列表
output = [[] for _ in b]
# 3. 遍历匹配对,将A的索引归类到B的对应元素下
for a_idx, b_idx in overlap_idxs:
output[b_idx.item()].append(a_idx.item())
return output
# 示例使用
A = torch.tensor([1,2,3,3,2,1,4,5,9])
B = torch.tensor([1,2,3,9])
result_hybrid = find_indices_hybrid(A, B)
print(f"混合方法结果: {result_hybrid}") # 预期: [[0, 5], [1, 4], [2, 3], [8]]
A_large = torch.arange(100000) # 模拟大张量A
B_large = torch.tensor([100, 50000, 99999, 100001]) # B中可能包含A中不存在的值
result_large_hybrid = find_indices_hybrid(A_large, B_large)
print(f"大型张量混合方法结果 (部分): {result_large_hybrid[:2]}...")当张量B的长度相对较小,或者希望将内存使用降到最低时,可以采用纯Python循环遍历张量B的每个元素,并在张量A中独立查找其索引。
import torch
def find_indices_pure_python_loop(a, b):
output = []
for _b in b:
# 查找当前 _b 在 a 中的所有索引
idxs_tensor = (a == _b).nonzero().squeeze()
# 将张量转换为Python列表
# 注意处理只有单个匹配项时 squeeze() 会将张量变为标量的情况
if idxs_tensor.dim() == 0: # 如果是标量(只有一个匹配项)
idxs = [idxs_tensor.item()]
elif idxs_tensor.numel() == 0: # 如果没有匹配项
idxs = []
else: # 多个匹配项
idxs = idxs_tensor.tolist()
output.append(idxs)
return output
# 示例使用
A = torch.tensor([1,2,3,3,2,1,4,5,9])
B = torch.tensor([1,2,3,9, 10]) # 添加一个不存在的值
result_pure_loop = find_indices_pure_python_loop(A, B)
print(f"纯Python循环方法结果: {result_pure_loop}") # 预期: [[0, 5], [1, 4], [2, 3], [8], []]
A_large = torch.arange(100000) # 模拟大张量A
B_small = torch.tensor([100, 50000, 99999, 100001]) # B的长度较小
result_large_A_small_B_loop = find_indices_pure_python_loop(A_large, B_small)
print(f"大型A小型B纯循环方法结果: {result_large_A_small_B_loop}")在选择上述两种优化方案时,需要根据实际场景中的张量大小、内存限制和性能要求进行权衡:
注意事项:
在PyTorch中高效地查找一个张量中另一个张量元素的索引是一个常见的需求,尤其是在处理大规模数据时,内存效率至关重要。本文介绍了两种优化的方法:结合部分广播和Python循环的混合方案,以及纯Python循环遍历张量B的方案。理解它们的实现原理、优缺点和适用场景,可以帮助开发者根据具体需求选择最合适的策略,从而在内存使用和计算性能之间取得最佳平衡。
以上就是PyTorch中高效查找张量B元素在张量A中的所有索引位置的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号