上篇讲解了旭日X3派开发板的基础部分,这篇给大家带来的是有关于我利用旭日X3来设计进行的一个小项目。

智能机器人的诞生

一、项目内容

1.通过以旭日X3派开发板为主控制板通过相机和触摸屏完成视觉部分;

2.利用单片机和和一些列控制模块作为辅助部分功能的完成。

整体装配后如下图所示:【可以看到旭日X3作为主控板放在C位啦~】

                                                                                         

   机器人内部结构总览图

整体构架俯视图

二、大概思路简述

1.利用旭日X3派开发板完成动态目标检测;

2.利用旭日X3派开发板达成人体骨骼点检测;

(这里1、2是通过X3派开发板连接相机和触摸屏用来进行物体识别并反映到触摸屏上)

3.利用Arduino UNO、Arduino Nano若干、ASR-01语音模块、L298N模块、气压检测模块等完成辅助机器人其他功能的实现;

三、关于旭日X3开发板部分的展示

1.动态目标检测

(1)首先确认自己的web服务器是否运行(小伙伴们如果像我之前有启动上电过旭日X3派就需要重新运行一下,如果没有启动上电过旭日X3就不需要啦);

(2)先到文件夹下拷贝文件cd /userdata/,把必要的模型库拷贝过来,如果之前有拷贝过的没有删除config文件夹的话是不需要再次拷贝的喔;

(3)拷贝完以后就可以运行例程了,用ros2 launch命令来运行里面的launch文件,这里注意一下其中的config/fcosworkconfig.json是用来完成动态物体的目标识别的,这串后面跟的就是图像的高度和宽度,一般是480和272的大小;

                                                                                                         

(4)将旭日X3派开发板连接mipi的接口相机,打开浏览器,运行成功后界面如下图:

如果没有显示图可以尝试刷新一下,地址仍然为:192.168.1.10,此时就可以自动识别物体并且框出物体显示其英文名称;

有关于mipi接口相机的详细阐述我就不在此多做赘述了,给大家放两张图,这是我用的mipi接口相机:

                                                                                                                                       

2.人体骨骼点检测

(1)与上一小部分一样,首先先确认我们的web服务器是否在旭日X3派开发板板卡内运行起来;(cd到web服务器的文件路径下面来,配置权限并做启动)

(2)运行例程,先source一下Together ROS的环境变量:source /opt/tros/setup.bash,再cd到usedata文件路径下,如果之前有请先进行删除的操作嗷,用rf config;

(3)接下来把人体识别的模型库和配置文件拷贝到当前所在的目录下面来:cp  -r/opt/tors/lib/mono2d_body_detection/config/,可以用ls查看一下情况是否完成;

(4)运行例程,用ros2 launch命令来运行在Together ROS当中已经内置好的一个人体识别的launch文件,完成后就会自动驱动你的mipi相机的整个运行,通过里面的图像来进行实时识别各个人体的骨骼关键点并同时将图像传输到网络中,通过浏览器就可以看到动态的识别的效果了;(如下图所示)

                                                                                                     

3.将旭日X3派开发板与触摸屏连接,进行视觉上更直观的展示:

【在这里只讲述有关旭日X3派开发板的相关内容,如果有小伙伴想要了解其他更多方面有关于所设计的机器人方面可以dd我嗷!】

这期的关于X3派笔记先到这里啦,如有不正确之处还请各位批评指正~!