机器人充电方法 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) 充电器:DC4.0 * 1.7mm,12.6V,800mA 欠压提醒 控制器程序中加入了电池保护,电压低于9.4V时蜂鸣器会常响报警,此时就需要尽快充电了。 充电方法 Attention 请使用OriginBot套件中自带的充电器进行充电。 确定机器
小车人体跟随 之前我们介绍了如何利用 X3派 进行人体检测和跟踪,那么加入我们想要将体检测和跟踪和真实机器人做一个结合会是一种什么样的体验呢? 这里,我们将通过X3派检测到的人体目标进行一个移动跟踪,最终的一个效果就是当装配着X3派和摄像头的小车面前出现一个人物时,小车将会跟随着人体一起移动。接下来,让我们一起来体验一下吧。 编程开发方法 先来看整个程序的流程图: 这里,我们将通过
机器人里程计校准 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 卷尺 手机指南针/量角器 由于每台机器人的电机及编码器物理性能均有微小差异,代码中已经进行了初步的校准,为了达到更好的定位效果,依然建议针对每台到手的实际机器人进行以下校准操作。 1. 准备工作 在
机器人参数动态监控 启动机器人后,OriginBot提供多种参数可动态检测或修改。 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 查看机器人状态 通过如下指令,可以看到机器人的状态信息,机器人端的发布频率为10Hz。 $ ros2 topic echo /
安装准备 本部分主要介绍在使用工具链前必须的环境准备工作,包含开发机部署(个人电脑)和开发板部署(例如旭日开发板等包含BPU设备)两个部分。 开发机部署(个人电脑) 官方的示例教程的开发机都是Linux系统,实际上Windows系统也是可以的。最建议的方式是利用docker,模型转换过程主要还是基于CPU,用不到GPU,所以用docker就够了。 (1)安装docker 考虑到用户多数是
安装 Homeassistant参考操作步骤详见地平线开发者社区-开发者论坛。 最后一个安装指令修改为以下,下载效果拔萃: pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple python3 -m pip install charset-norm
SLAM建图 从这一节开始,我们开始尝试将 TogetherROS 与机器人联系起来做一些小项目。 第一节将开始学习 SLAM 技术。SLAM一般指即时定位与地图构建,即时定位与地图构建(Simultaneous Localization and Mapping,简称SLAM) 这个章节,我们将联系ROS2 和 TogetherROS ,使用 ROS2 的 SLAM-Toolbox 作为建图
准备工作 (1)旭日X3派 本摄像头小车上位机采用旭日X3派开发板。开发环境为Ubuntu系统下的opencv-python环境。通过HDMI外接显示器实现对两个车载USB摄像头的监测与开发,进而感知周边地图环境,通过UART与下位机的通信实现对下位机的控制。 (2)Aduino Mega 2560 Pro 开发板+IO拓展板 搬运小车的下位机使用的是以开源开发板Arduino ATmeg
IMU驱动与可视化 Hint 操作环境及软硬件配置如下: OriginBot机器人(导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) IMU驱动 SSH连接OriginBot成功后,在终端中输入如下指令,即可启动机器人底盘及IMU: $ ros2 launch originbot_bringup originbot.launch.p
单目3D室内检测 接下来,我们继续学习物体 3D 检测算法。 机器人有时候不仅仅要识别出人,还要识别出房间里有什么东西,这就是室内物体 3D 检测啦。 在TogetherROS上,就集成了这样一套算法,接下来让我们一起来体验以下吧。 先来看一张图片,很明显大家可以看到图中有两个垃圾桶。 运行示例程序 # 配置ROS2环境 $ source /opt/tros/setup.bash
雷达驱动与可视化 Hint 操作环境及软硬件配置如下: OriginBot机器人(导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 雷达驱动 SSH连接OriginBot成功后,在终端中输入如下指令,即可启动机器人底盘及雷达驱动: $ ros2 launch originbot_bringup originbot.launch.py
相机驱动与图像可视化 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 相机驱动例程 旭日X3派中,已经内置了相机的驱动程序,为了确定相机连接正确并且被系统识别,我们先来运行系统自带的相机例程。 启动相机例程 SSH连接OriginBot成功后,在终端中输入如下指
人体检测与跟踪 不知道大家有没有玩过类似XBOX的体感游戏机,上边会有一个相机,动态识别我们的动作,比如跳舞、打球,是不是还挺神奇的,这就是人体检测与跟踪的应用。 TogetherROS中也集成了一套类似的算法,可以识别人体、人头、人脸、人手等一系列关键点,我们来体验一下。 编程开发方法 先来看一个人体识别的基础应用,我们驱动相机后,实时采样视觉信息,然后再通过检测算法,识别每一幅图片中人
机器人遥控与可视化 基于ROS2的分布式特性,OriginBot很容易实现远程遥控运动。 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 键盘 手柄(可选) 键盘遥控 在PC端通过SSH连接OriginBot。 连接成功后,在第一个终端里,启动机器人底盘
机器人启动与参数配置 基于originbot.launch.py启动文件,我们不仅可以实现OriginBot机器人底盘的启动,还可以利用不同参数的配置与搭配实现不同传感器的组合启动。 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 机器人启动方法 在PC端通过SS
动态目标检测 图像物体分类重在分析图像中存在的物体是什么,便于机器理解看到的环境信息,另外一种场景,机器不仅要识别某一物体,还要知道这个物体所在的位置,当物体在运动时,更要快速连续的跟踪,这就是目标检测,重在分析识别到物体在图像中的位置。 目标检测原理 假设我们要识别图像中这只狗的位置,以最为常用的YOLO算法为例,它会运用单个卷积神经网络(CNN) ,将图像分成网格,并预测每个网格的对
Hello! 各位初次见面的萌新和久经沙场的社牛 目前开发者社区已成立两年有余 感谢大家一路上的支持和理解 今天,我们也准备了一些小礼品 希望倾听大家作为用户和开发者的真心话 同时,也欢迎初次见面的萌新们一同冒险 期待陪伴大家走过更长的美好时光 活动详情如下:
OriginBot完全遵循ROS2的开发方法,这里简要介绍功能包的常见操作,ROS2详细的开发原理,请参考ROS2入门教程。 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 工作空间 在ROS机器人开发中,我们针对机器人某些功能进行代码开发时,各种编写的代码、参数、脚本
0x00 前情回顾 OriginBot我的第一辆智能小车 0x01 PS2手柄 无线手柄,USB接收器。某宝上有很多,大概¥30一套; 注:Xbox类手柄可能需要另外安装驱动,本教程暂不涉及。 0x02 实验步骤 1、启动小车,将USB接收器插入旭日X3派; 2、登录小车; ssh root@192.168.0.13 注:这做这一步之前,请根据 OriginBot
图像物体分类 接下来我们继续学习基于Hobot CNN模型推理库之上的视觉应用。 机器人要感知周边环境,那就得确定看到的图像中都有什么,比如地上有一只猫,旁边有一个桌子之类的,这个猫和桌子就是具体的物体分类啦。 图像分类原理 如果是人来识别一只猫的话,似乎再简单不过了,无论黑猫、白猫还是花猫,我们一眼就可以看出来。 不过这件事对于机器人来讲可没有那么简单,为了能够让机器准确识别一只猫,无
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信