
在使用pytorch的`torch.vmap`进行函数向量化时,如果在函数内部创建新的张量(如通过`torch.zeros`),并且该张量的形状不完全由批处理输入直接决定,可能会遇到`batchedtensor`兼容性问题。本文将深入探讨这一挑战,并提供一种优雅的解决方案,通过结合`clone()`和`torch.concatenate`来确保内部创建的张量也能正确地进行批处理,从而实现高效且可读的代码。
torch.vmap 是 PyTorch 提供的一个强大工具,用于自动向量化函数,将处理单个样本的函数转换为处理一批样本的函数,而无需手动添加批处理维度。它的核心机制是追踪对 BatchedTensor(即 vmap 传入的批处理输入)进行的操作,并确保所有派生张量都正确地保留批处理维度。
然而,当我们在 vmap 内部的函数中,使用 torch.zeros 或 torch.empty 等函数创建一个新的张量时,如果这个张量的形状不是直接从 BatchedTensor 派生而来,或者我们尝试对其进行原地修改,vmap 可能无法正确识别并对其进行批处理。
考虑以下计算多项式伴随矩阵的函数 polycompanion:
import torch
def polycompanion(polynomial):
# polynomial 是一个一维张量,表示多项式系数
# 例如 [a_n, a_{n-1}, ..., a_0]
# 伴随矩阵的维度通常是 (degree, degree)
# 这里的 deg = polynomial.shape[-1] - 2 是根据具体多项式定义来确定伴随矩阵维度的
deg = polynomial.shape[-1] - 2
# 初始化一个零矩阵作为伴随矩阵的基础
companion = torch.zeros((deg + 1, deg + 1))
# 填充伴随矩阵的左下角部分为单位矩阵
companion[1:, :-1] = torch.eye(deg)
# 填充伴随矩阵的最后一列
# 这一列的值依赖于输入的 polynomial
companion[:, -1] = -1. * polynomial[:-1] / polynomial[-1]
return companion
# 准备批处理输入
poly_batched = torch.tensor([[1, 2, 3, 4], [1, 2, 3, 4]], dtype=torch.float32)
# 尝试使用 vmap 向量化函数
polycompanion_vmap = torch.vmap(polycompanion)
# 运行会失败,因为 companion 在函数内部被创建为普通的 Tensor,
# 并且在 vmap 运行时没有被正确地批处理。
try:
print(polycompanion_vmap(poly_batched))
except Exception as e:
print(f"Error when trying to vmap with internal torch.zeros: {e}")上述代码在 torch.vmap 环境下运行时会抛出错误。原因是 companion = torch.zeros((deg+1, deg+1)) 创建了一个普通的 torch.Tensor,而不是一个 BatchedTensor。尽管 deg 是从 polynomial 的形状推导而来,但 torch.zeros 本身并不知道它需要被批处理。随后的原地赋值操作 companion[1:,:-1] = torch.eye(deg) 和 companion[:,-1] = ... 并没有将 companion 转换为 BatchedTensor,导致 vmap 无法正确处理其批处理维度。
一个常见的临时解决方案是,在调用 vmap 之前预先创建并传入一个批处理的零张量:
# 初始的丑陋 workaround
def polycompanion_workaround(polynomial, companion_template):
# deg = companion_template.shape[-1] - 1 # 这里的deg需要根据template重新计算
deg = polynomial.shape[-1] - 2 # 保持与原函数一致
# 使用传入的模板进行原地修改
companion_template[1:,:-1] = torch.eye(deg)
companion_template[:,-1] = -1. * polynomial[:-1] / polynomial[-1]
return companion_template
polycompanion_vmap_workaround = torch.vmap(polycompanion_workaround)
# 预先创建批处理的零张量
# 注意这里的形状需要与期望的批处理输出形状匹配
batch_size = poly_batched.shape[0]
matrix_dim = poly_batched.shape[-1] - 1 # (deg+1)
pre_batched_zeros = torch.zeros(batch_size, matrix_dim, matrix_dim, dtype=torch.float32)
print("Workaround output:")
print(polycompanion_vmap_workaround(poly_batched, pre_batched_zeros))这种方法虽然能工作,但它要求修改函数签名以接受一个额外的模板张量,并且需要在外部手动管理这个模板的批处理维度,这降低了代码的优雅性和可维护性。
为了在 vmap 内部优雅地创建并填充批处理张量,我们应该避免对非批处理张量进行原地修改。相反,我们可以通过组合已经批处理的张量片段来构建最终的批处理张量。这里的关键在于利用 clone() 操作来“激活”批处理维度,并使用 torch.concatenate 将这些片段组合起来。
以下是改进后的 polycompanion 函数:
import torch
def polycompanion_optimized(polynomial):
deg = polynomial.shape[-1] - 2
# 1. 创建一个非批处理的零矩阵作为基础结构
# 这个 companion 此时仍是普通的 Tensor
companion_base = torch.zeros((deg + 1, deg + 1), dtype=polynomial.dtype)
# 2. 填充单位矩阵部分
# 这一部分是伴随矩阵的左侧部分
identity_part = companion_base[1:, :-1].clone() # 关键:clone() 使得这部分成为 BatchedTensor
identity_part[torch.eye(deg, dtype=torch.bool)] = 1.0 # 填充单位矩阵
# 3. 计算伴随矩阵的最后一列
# polynomial 是 BatchedTensor,所以这个计算结果自然也是 BatchedTensor
last_column = -1. * polynomial[:-1] / polynomial[-1]
# 4. 扩展 last_column 的维度以匹配 concatenate 的要求
# last_column 的形状是 (deg+1,),需要变成 (deg+1, 1) 才能与 identity_part 拼接
last_column_expanded = last_column[:, None]
# 5. 使用 torch.concatenate 将批处理的片段组合起来
# identity_part 是 (deg+1, deg) 形状的 BatchedTensor
# last_column_expanded 是 (deg+1, 1) 形状的 BatchedTensor
# 沿着 dim=1 拼接,得到 (deg+1, deg+1) 形状的 BatchedTensor
_companion = torch.concatenate([identity_part, last_column_expanded], dim=1)
return _companion
# 准备批处理输入
poly_batched = torch.tensor([[1, 2, 3, 4], [1, 2, 3, 4]], dtype=torch.float32)
# 使用 vmap 向量化优化后的函数
polycompanion_vmap_optimized = torch.vmap(polycompanion_optimized)
print("\nOptimized vmap output:")
print(polycompanion_vmap_optimized(poly_batched))输出结果:
Optimized vmap output:
tensor([[[ 0.0000, 0.0000, -0.2500],
[ 1.0000, 0.0000, -0.5000],
[ 0.0000, 1.0000, -0.7500]],
[[ 0.0000, 0.0000, -0.2500],
[ 1.0000, 0.0000, -0.5000],
[ 0.0000, 1.0000, -0.7500]]])在 torch.vmap 中进行动态张量创建时,关键在于确保所有需要批处理的中间张量都能够被 vmap 机制正确识别。通过将张量的创建分解为批处理的片段(例如,利用 clone() 激活批处理维度,或直接从 BatchedTensor 派生),然后使用 torch.concatenate 等操作将它们组合起来,我们可以编写出既高效又符合 vmap 设计哲学的代码。这种方法避免了修改函数签名来传入预批处理张量的“丑陋”做法,使得代码更加清晰和易于维护。
以上就是PyTorch vmap中动态张量创建的技巧与最佳实践的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号