paddle_inference_ros能将Paddle Inference嵌入ROS,在Ubuntu18.04 ROS Melodic环境部署飞桨CV模型,实现实时图像检测。需特定软硬件环境,编译相关组件后,运行节点可借助GPU和TensorRT加速。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Paddle Inference是飞桨的原生推理库,提供高性能的推理能力。 由于能力直接基于飞桨的训练算子,因此Paddle Inference可以通用支持飞桨训练出的所有模型。 Paddle Inference功能特性丰富,性能优异,针对不同平台不同的应用场景进行了深度的适配优化,做到高吞吐、低时延,保证了飞桨模型在服务器端即训即用,快速部署。
待Paddle inference GPU预测正常之后再将其迁移进ROS中。
在ROS中想使用原生python3的Paddle Inference,最重要的就是需要重新编译基于python3的cv_bridge,只有我们在编译完成后,才能在ROS中运行python3的Paddle Inference目标检测、分类、分割等相关节点时,自动调用基于python3的cv_bridge。所以编译基于python3的cv_bridge便是最基础和最重要的一步,按以下步骤进行操作:
$ mkdir -p paddle_ros_ws/src && cd paddle_ros_ws/src $ catkin_init_workspace $ git clone https://gitee.com/irvingao/vision_opencv.git $ cd ../ $ catkin_make install -DPYTHON_EXECUTABLE=/usr/bin/python3
$ vim ~/.bashrc
在最后添加:
source ~/paddle_ros_ws/devel/setup.bashsource ~/paddle_ros_ws/install/setup.bash --extend
检查是否安装成功:
$ python3
import cv_bridgefrom cv_bridge.boost.cv_bridge_boost import getCvType
如果显示如下,则表明安装成功:
Python 3.6.9 (default, Jan 26 2021, 15:33:00) [GCC 8.4.0] on linuxType "help", "copyright", "credits" or "license" for more information.>>> import cv_bridge>>> from cv_bridge.boost.cv_bridge_boost import getCvType>>>
cd src $ git clone https://gitee.com/irvingao/paddle_inference_ros.git $ cd paddle_inference_ros/scripts $ chmod +x * $ cd ../../.. $ catkin_make -DPYTHON_EXECUTABLE=/usr/bin/python3
下载yolo_v3目标检测模型
$ cd src/paddle_inference_ros/scripts $$ ./download_model.sh
分别使用三个终端运行:
$ roscore$ rosrun paddle_inference_ros camera.py$ rosrun paddle_inference_ros pp_infer.py
可以成功在ROS中运行paddle inference,并实现GPU和TensorRT的加速!
以上就是手把手教你在ROS Melodic中部署Paddle Inference的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号