引言

本教程连载一辆能够用 ROS 控制的带摄像头的小车,用 ROS 发布图像数据,对获取到的图像进行处理,如目标检测。本篇文章主要介绍如何把本教程后面的内容汇聚起来,实现一个能目标检测的小车。

 


先归纳一下后续几篇文章的内容:

 

 


本篇几乎涉及了上面所有文章的内容是一个综合应用,大家可以根据之后的连载一步一步学起来。如果对上面的内容比较熟悉了,就会发现这篇文章很简短,但是却是建立在上面几篇的基础上:

 


  • 了解 CNN 的工作原理;

  • 能使用 Darknet 训练自己的目标检测模型;

  • 能用 rosserial 建立 RT-Thread 和 ROS 的连接;

  • 能用 ROS 发布图像信息。

 

下面就会介绍如何用 ROS 发布的图像信息和 Darknet 连接做目标检测。

 

1.Darknet ROS

1.1 获取源码

 

其实下面要用到的是一个 ROS 软件包,这个软件包现在也是开源的:

 

# 初始化工作环境
$ mkdir catkin_workspace
$ cd catkin_workspace/src
$ catkin_init_workspace

## 下载源码
$ git clone --recursive http://github.com/leggedrobotics/darknet_ros.git

 

除了源码,我们还要下载一些训练好的神经网络权值,放在下面这个目录:

$ catkin_workspace/src/darknet_ros/darknet_ros/yolo_network_config/weights/

 

如果觉得国外下载速度太慢的话,这里我有个国内的 CDN 加速镜像:

 

yolov2-tiny.weights:https://wuhanshare-1252843818.cos.ap-guangzhou.myqcloud.com/yolov2-tiny.weights
yolov2.weights:https://wuhanshare-1252843818.cos.ap-guangzhou.myqcloud.com/yolov2.weights
yolov3.weights:https://wuhanshare-1252843818.cos.ap-guangzhou.myqcloud.com/yolov3.weights

 

如果源码和权值都下载好了,我们就可以准备编译了。

 

1.2 编译源码


为了保证 Darknet 能够获取到摄像头的数据,我们需要先告诉它摄像头的信息发布在哪里,修改这个文件:

 

$ catkin_workspace/src/darknet_ros/darknet_ros/config/ros.yaml

 

 

把下面的 topic 修改为自己图像发布的位置,例如我这里发布在 /usb_cam/image_raw

 

camera_reading:
 topic: /usb_cam/image_raw
 queue_size: 1

 

然后就可以编译软件包了,在 catkin_workspace 目录下:

 

$ catkin_make

 

 

一切正常的话,编译就完成了,其实不需要做太多的工作,编译完记得更新一下环境变量,这样后面才能正常启动这个软件包。

$ sorce devel/setup.bash

 

 

1.3 目标检测


在进行目标检测前,我们先启动 ROS 节点:

 

$ roscore

 

 

然后启动一个摄像头节点:

 roslaunch usb_cam usb_cam-test.launch

这样就可以实时看到摄像头的数据了,摄像头在哪里其实不重要,既可以在小车上,也可以在电脑上,这也是 ROS 的优美之处,只要节点发布了摄像头消息,不管摄像头在哪, ROS 都能拿到处理:

 

 

接下来我们启动 Darknet 的节点:

 

$ roslaunch darknet_ros darknet_ros.launch

 

下面这张图就可以看到有两个视频流,左边的是没有处理的实时图像,右边是运行了目标检测的结果:

 

 

2.总结


RT-Thread 作为实时操作系统负责控制,Linux 则负责提供丰富的软件包运行算法,两者相结合,互相取长补短还是配合地挺好的。

 

3.参考文献


Darknet ROS:
https://github.com/leggedrobotics/darknet_ros