https://www.php.cn/link/e3752bd232f5ce0a575ae0a35c06c79c
近期,YOLOv8官方发布了全新的YOLOv11框架,为当前目标检测领域再添一员得力助手。本文记录了在Windows系统下成功部署YOLOv11的TensorRT模型全过程。
重要提示:环境配置属于基础操作,本文不详细展开安装流程,相关步骤可通过搜索引擎查找对应资源完成。
部署中最耗时的部分是环境搭建。首先确认系统为Windows 10或11,并配备NVIDIA独立显卡。可通过任务管理器查看(Win10使用
Ctrl+Alt+Delete
Ctrl+Shift+Esc
785b7ad428034221a4ff1a167855b167.png
立即学习“C++免费学习笔记(深入)”;
若显示GPU0、GPU1等设备,且标注为“NVIDIA”,则说明具备可用的独立显卡。若为AMD或集成显卡,则不支持CUDA及TensorRT加速。
接下来需安装以下软件(建议版本一致以快速复现):
确保上述环境均已正确安装后,开始正式部署。
前往YOLOv8官方仓库下载YOLOv11模型权重:
将下载的
yolo11n.pt
yolo export model=yolo11n.pt format=onnx dynamic=False opset=12
或直接运行项目中的
export.py
python export.py
成功后将生成
yolo11n.onnx
修改项目根目录下的
CMakeLists.txt
# Find and include OpenCV set(OpenCV_DIR "D:\\lufiles\\opencv480\\build\\x64\\vc16\\lib") <h1>Set TensorRT path if not set in environment variables</h1><p>set(TENSORRT_DIR "D:\lufiles\TensorRT-8.6.1.6")
随后创建构建目录并生成项目:
mkdir build cd build cmake ..
601145cbd0fb446290fb27b11fbc2117.png
进入
build
.sln
70e777a66b54441ca8f17ffb2d9ab09b.png
选择 x64 Release 模式,右键点击
ALL_BUILD
40ae80d428e44f089f115723678e3122.png
编译成功后,可在
buildRelease
yolov11-tensorrt.exe
使用TensorRT自带的
trtexec
trtexec --onnx=yolo11n.onnx --saveEngine=yolo11n.engine --fp16
等待约20分钟,生成
yolo11n.engine
buildRelease
039d294b13854248a4a636bfcffeba0e.png
yolov11-tensorrt.exe yolo11n.engine "test.jpg"
yolov11-tensorrt.exe yolo11n.engine "car.mp4"
main.cpp
以上就是[C++]使用C++部署yolov11目标检测的tensorrt模型支持图片视频推理windows测试通过的详细内容,更多请关注php中文网其它相关文章!
Windows激活工具是正版认证的激活工具,永久激活,一键解决windows许可证即将过期。可激活win7系统、win8.1系统、win10系统、win11系统。下载后先看完视频激活教程,再进行操作,100%激活成功。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号