
在使用yolov7等深度学习模型时,我们经常会利用gpu进行加速推理。当执行如python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source inference/images/horses.jpg这样的命令时,如果遇到以下错误:
Traceback (most recent call last):
File "C:\yolov7-gpu\detect.py", line 201, in <module>
detect()
File "C:\yolov7-gpu\detect.py", line 97, in detect
pred = non_max_suppression(pred, opt.conf_thres, opt.iou_thres, classes=opt.classes, agnostic=opt.agnostic_nms)
File "C:\yolov7-gpu\utils\general.py", line 713, in non_max_suppression
i = torchvision.ops.nms(boxes, scores, iou_thres) # NMS
File "C:\Users\aleja\anaconda3\envs\yolov7-gpu-env\lib\site-packages\torchvision\ops\boxes.py", line 41, in nms
return torch.ops.torchvision.nms(boxes, scores, iou_threshold)
File "C:\Users\aleja\anaconda3\envs\yolov7-gpu-env\lib\site-packages\torch\_ops.py", line 692, in __call__
return self._op(*args, **kwargs or {})
NotImplementedError: Could not run 'torchvision::nms' with arguments from the 'CUDA' backend. This could be because the operator doesn't exist for this backend, or was omitted during the selective/custom build process (if using custom build). If you are a Facebook employee using PyTorch on mobile, please visit https://fburl.com/ptmfixes for possible resolutions. 'torchvision::nms' is only available for these backends: [CPU, QuantizedCPU, BackendSelect, Python, FuncTorchDynamicLayerBackMode, Functionalize, Named, Conjugate, Negative, ZeroTensor, ADInplaceOrView, AutogradOther, AutogradCPU, AutogradCUDA, AutogradXLA, AutogradMPS, AutogradXPU, AutogradHPU, AutogradLazy, AutogradMeta, Tracer, AutocastCPU, AutocastCUDA, FuncTorchBatched, FuncTorchVmapMode, Batched, VmapMode, FuncTorchGradWrapper, PythonTLSSnapshot, FuncTorchDynamicLayerFrontMode, PreDispatch, PythonDispatcher].这个NotImplementedError明确指出torchvision::nms操作无法在CUDA后端运行。这通常不是因为操作本身不存在,而是因为当前的PyTorch安装没有正确地为CUDA后端编译或链接相应的库。其根本原因在于PyTorch的GPU优化高度依赖于特定的CUDA版本和驱动程序,如果PyTorch、CUDA Toolkit、cuDNN和GPU驱动之间的版本不兼容,或者PyTorch没有安装支持CUDA的版本,就会出现此类问题。
在尝试重新安装之前,首先需要确认当前环境的GPU和CUDA配置。
确保您的NVIDIA GPU驱动程序已正确安装并处于最新状态。同时,检查是否安装了与PyTorch兼容的CUDA Toolkit。您可以通过在命令行运行nvidia-smi来查看GPU信息和CUDA版本(CUDA Version)。
在Python环境中,可以运行以下代码片段来验证PyTorch是否识别到CUDA设备,以及其编译时所用的CUDA版本:
import torch
print(f"CUDA 是否可用: {torch.cuda.is_available()}")
if torch.cuda.is_available():
print(f"当前 CUDA 版本: {torch.version.cuda}")
print(f"cuDNN 是否可用: {torch.backends.cudnn.is_available()}")
print(f"GPU 名称: {torch.cuda.get_device_name(0)}")
print(f"GPU 内存总量: {torch.cuda.get_device_properties(0).total_memory / (1024**3):.2f} GB")
else:
print("未检测到 CUDA 设备,PyTorch 将使用 CPU 运行。")如果torch.cuda.is_available()返回False,或者torch.version.cuda与您系统安装的CUDA Toolkit版本不匹配(例如,您系统安装了CUDA 11.8,但PyTorch显示为None或更旧的版本),那么问题很可能出在PyTorch的安装上。
解决此问题的关键在于按照官方推荐的方式,正确安装与您的GPU和CUDA Toolkit版本兼容的PyTorch。
在安装新版本之前,建议先彻底卸载当前环境中已有的PyTorch及其相关包。如果您使用的是conda环境,可以执行:
conda uninstall pytorch torchvision torchaudio pytorch-cuda -y # 如果不是conda安装,尝试使用pip pip uninstall torch torchvision torchaudio -y
PyTorch官方网站提供了最权威、最准确的安装指令。访问 PyTorch Get Started Locally 页面。
在该页面,您需要根据以下信息选择正确的安装配置:
选择完毕后,页面下方会生成一条具体的安装命令,例如:
# 示例:针对CUDA 11.8的conda安装命令 conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia
或
# 示例:针对CUDA 11.8的pip安装命令 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
将生成的命令复制到您的终端或Anaconda Prompt中执行。确保在您希望安装PyTorch的Python虚拟环境中执行此命令。安装过程可能需要下载较大的文件,请耐心等待。
安装完成后,再次运行第2.2节中的Python代码来验证PyTorch的CUDA支持是否已正确启用。如果torch.cuda.is_available()返回True,并且torch.version.cuda显示了正确的CUDA版本,那么恭喜您,PyTorch已正确配置。
现在,您可以再次尝试运行YOLOv7的detect.py命令:
python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source inference/images/horses.jpg
此时,YOLOv7应该能够正常加载模型并利用GPU进行推理,不再出现NotImplementedError。
通过遵循上述步骤,您应该能够成功解决YOLOv7中遇到的torchvision::nms CUDA后端错误,确保您的深度学习项目能够充分利用GPU的计算能力。
以上就是解决YOLOv7中'torchvision::nms' CUDA后端兼容性问题的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号