
在深度学习领域,模型的可复现性是确保实验结果可靠性和代码稳定性的基石。然而,即使在相同的输入和模型权重下,有时也会观察到模型输出的不一致性,即“非确定性”结果。这通常发生在以下几个方面:
当用户发现其基于torchvision.models.detection.retinanet_resnet50_fpn_v2预训练模型进行实例分割时,即使输入图像相同,模型推理出的标签和标签数量也每次不同,这便是一个典型的非确定性问题。尽管代码中没有明显的警告或异常,但内部的随机性源头可能导致这种行为。
要解决深度学习模型(包括预训练模型推理)的非确定性问题,核心在于在程序执行的早期统一设置所有可能引入随机性的组件的随机种子。这包括Python标准库、NumPy和PyTorch本身。
以下是一个推荐的全面种子设置脚本,应放置在程序入口点(例如if __name__ == '__main__':块的开始处):
import torch
import numpy as np
import random
import os
def set_seed(seed_value=3407):
"""
设置所有相关库的随机种子,以确保实验的可复现性。
"""
# 1. Python标准库的随机种子
random.seed(seed_value)
# 2. NumPy的随机种子
np.random.seed(seed_value)
# 3. PyTorch的随机种子
torch.manual_seed(seed_value)
# 4. PyTorch CUDA操作的随机种子 (即使在CPU上运行,也建议设置)
torch.cuda.manual_seed(seed_value)
torch.cuda.manual_seed_all(seed_value) # 如果使用多GPU
# 5. cuDNN相关设置
# 确保cuDNN使用确定性算法,这可能会牺牲一些性能
torch.backends.cudnn.deterministic = True
# 禁用cuDNN的自动优化,因为其可能导致非确定性行为
torch.backends.cudnn.benchmark = False
# 6. 设置Python哈希种子,影响字典、集合的迭代顺序等
os.environ['PYTHONHASHSEED'] = str(seed_value)
# 7. (可选) PyTorch 1.8+ 提供的全局确定性算法开关
# 注意:此功能在某些操作上可能会抛出错误,如果它们没有确定性实现
# if hasattr(torch, 'use_deterministic_algorithms'):
# torch.use_deterministic_algorithms(True)
# 在程序入口调用
if __name__ == '__main__':
set_seed(3407) # 使用一个固定的种子值
# 实例化RetinaNet模型并进行推理
# ... (此处放置原有的RetinaNet类实例化和推理代码)
# 确保图像数据正确移动到设备
# input_tensor = input_tensor.to(self.device) # 修正:确保数据在模型前已移至正确设备
# ...代码解析:
对于训练场景或涉及自定义数据加载的推理场景,torch.utils.data.DataLoader也可能引入随机性,尤其是在使用多进程worker和数据增强时。为了确保DataLoader的可复现性,除了上述全局种子设置外,还需要为DataLoader的generator参数指定一个带有固定种子的torch.Generator对象。
# 在DataLoader初始化时
g = torch.Generator()
g.manual_seed(seed_value) # 使用与全局设置相同的种子值
dataLoader = torch.utils.data.DataLoader(
dataset=your_dataset,
batch_size=batch_size,
shuffle=True, # 如果需要打乱,此处的打乱也由g控制
num_workers=num_workers,
generator=g # 将手动设置种子的生成器传递给DataLoader
)通过将一个手动设置了种子的torch.Generator传递给DataLoader,可以确保数据批次的生成顺序(如果shuffle=True)和数据增强操作(如果增强函数内部使用了随机数)在每次运行时都是一致的。
确保深度学习模型的可复现性是模型开发和部署中的一项关键任务。通过在程序入口点系统地设置Python、NumPy和PyTorch的随机种子,并特别关注cuDNN的确定性配置,可以有效解决像RetinaNet推理过程中出现的非确定性问题。
重要提示:
通过遵循这些最佳实践,开发者可以极大地提高深度学习实验的可信赖性和可维护性,从而更高效地进行模型迭代和问题调试。
以上就是深度学习模型可复现性:解决PyTorch RetinaNet非确定性结果的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号