
在pytorch中,反向传播(backward pass)计算梯度,通常情况下,非叶子张量的梯度在计算完成后会被自动释放,以节省内存。模块的后向钩子(如register_full_backward_hook)主要用于捕获流经模块的梯度输入和输出,或者修改参数的梯度,而不是直接访问任意中间计算结果的梯度。因此,尝试将模块钩子用于打印sum_x或mul_x这类中间张量的梯度是无效的,因为这些张量本身不是模块,且它们的梯度在默认情况下不会被保留。
要获取非叶子张量(即不是模型参数的中间计算结果)的梯度,我们需要采取以下两个关键步骤:
下面通过一个具体的代码示例来演示如何实现:
假设我们有一个简单的神经网络func_NN,我们想在反向传播后检查mul_x和sum_x这两个中间张量的梯度。
import torch
import torch.nn as nn
import torch.optim as optim
class func_NN(nn.Module):
def __init__(self):
super().__init__()
self.a = nn.Parameter(torch.rand(1))
self.b = nn.Parameter(torch.rand(1))
def forward(self, inp):
# 中间计算步骤
mul_x = torch.cos(self.a.view(-1, 1) * inp)
sum_x = mul_x - self.b
# 关键步骤1: 显式保留中间张量的梯度
# 这会告诉PyTorch在反向传播后不要丢弃这些张量的梯度
mul_x.retain_grad()
sum_x.retain_grad()
# 关键步骤2: 将中间张量存储为模型实例的属性
# 这样在forward方法执行后,我们可以在外部访问它们
self.mul_x = mul_x
self.sum_x = sum_x
return sum_x
# 准备数据和模型
a_true = torch.Tensor([0.5])
b_true = torch.Tensor([0.8])
x_data = torch.linspace(-1, 1, 10)
# 模拟带有噪声的标签数据
y_label = a_true * x_data + (0.1**0.5) * torch.randn_like(x_data) * 0.001 + b_true
input_data = torch.linspace(-1, 1, 10)
model = func_NN()
loss_fn = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)
# 执行一次前向传播和反向传播
# 在实际训练中,这通常在一个循环内完成
optimizer.zero_grad() # 清零之前的梯度
output = model.forward(inp=input_data)
loss = loss_fn(y_label, output)
loss.backward() # 执行反向传播
# 反向传播完成后,现在可以访问中间张量的梯度了
print("mul_x 的梯度:")
print(model.mul_x.grad)
print("\nsum_x 的梯度:")
print(model.sum_x.grad)
# 注意:如果需要继续训练,通常会在这里调用 optimizer.step()
# optimizer.step()通过在PyTorch中对需要观察的中间张量调用.retain_grad()方法,并确保在反向传播后能够访问这些张量(例如,将它们存储为模型属性),可以有效地获取它们的梯度。这种方法对于深入理解模型行为、进行高级调试和分析梯度流具有不可替代的价值,但同时也需要注意其可能带来的内存开销。
以上就是PyTorch中获取中间张量梯度的实用指南的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号