Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 应用介绍 在世界杯的足球赛场上,大家见识到了球员们驰骋在足球场上的种种场面。不知道大家会不会也幻想有一天机器人也能真正的上足球赛场进行一场惊心动魄的较量呢?接下来就让我们来以 OriginBot 为例,开发一项踢足球的新
Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) + pytorch + docker 该功能转载自《地平线机器人平台用户手册》,点击查看原内容 应用目标 我们现在经常可以看到车辆自主泊车,在停车库中找到属于自己的车位。那我们可不可以在OriginBot小车上
一、准备工作 硬件部分:旭日X3派,USB免驱摄像头,电源适配器,烧录Ubuntu系统的SD卡,USB扬声器,显示屏(或者VNC/SSH远程连接) 软件部分:Thonny IDE集成开发环境 首先,关于Ubuntu系统镜像的烧录官方有详细的教程,这里不再赘述,我自己是选择桌面Ubuntu 20.04,大家选择最新的即可。如果是第一次进入系统,记得使用命令行更新一下软件源等,使用快捷键ct
虚拟仿真 Hint 操作环境及软硬件配置如下: PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 开发环境配置 确保在PC端已经安装好Ubuntu+ROS2系统,并且完成originbot_desktop代码仓库的下载和编译。 具体操作请见:下载/编译PC端功能包 三维模型可视化 在PC端运行如下指令: $ ros2 launch origi
应用目标 在视觉巡线(OpenCV)中,我们已经可以让小车跟随黑色的路径线运动,实现了最基础的视觉巡线任务,不过大家可能已经发现,基于OpenCV的图像识别受光线影响较大,更换场地后,就需要重新调整阈值,有没有可能让机器人自主适应环境的变化呢?也就是让机器人自己来学习。 没问题,深度学习大家一定都听说过,使用这种方法,我们就可以实现数据驱动化的视觉巡线效果,需要适应什么样的场地,只需要采集
1. 场景说明 视觉巡线的场景如下,该例程使用黑色引导线作为识别目标,尽量向下调节相机角度,避免外界干扰。 Attation 视觉巡线受光线和颜色影响较大,强烈建议使用该例程前,先调试一下自己场地环境下引导线的阈值,并对应修改originbot_linefollower/follower.py程序中HSV阈值的上下限,完成修改后注意重新编译再运行如下步骤。 2. 启动底盘和相机
手势控制 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 1. 启动机器人底盘 SSH连接OriginBot成功后,在终端中输入如下指令,启动机器人底盘: $ ros2 launch originbot_bringup originbot.launch.py 2
一、目标 本次工作的目标是在旭日X3派上部署PaddlePaddle的开源模型,至于PaddlePaddle模型转换,已有大佬写过很赞的教程,自我感觉不能超越,于是本文不再提及。 飞桨(PaddlePaddle)是集深度学习核心框架、工具组件和服务平台为一体的技术先进、功能完备的开源深度学习平台,已被中国企业广泛使用,深度契合企业应用需求,拥有活跃的开发者社区生态。提供丰富的官方支持模型集合,
人体跟随 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 1. 启动机器人底盘 SSH连接OriginBot成功后,在终端中输入如下指令,启动机器人底盘: $ ros2 launch originbot_bringup originbot.launch.py 2
环境配置 安装依赖包 如果在当前python环境下能利用pip install onnx轻松安装onnx,直接配置YOLOv5的环境即可;如果环境安装有一些限制,建议跑模型的python环境为3.10。 # 在指定路径下创建虚拟环境,我的anaconda安装在c盘,但我想把环境放在d盘,所以利用--prefix D:\Anaconda3\envs\yolov5指定路径 conda crea
Hint 操作环境及软硬件配置如下: OriginBot机器人(导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 1. 配置地图 自主导航会在之前SLAM建立好的地图之上完成,OriginBot导航功能包中包含一张默认地图,在进行导航前,需要修改成自己环境的地图,修改方法如下: 拷贝自己SLAM建立好的地图文件(*.pgm)和地图配置文件(*
一、下载代码 Linzaer的代码仓中,提供了PyTorch和ONNX格式的预训练模型,同时还提供了常用框架的Python和C++推理代码实现,以及测试图片、脚本和说明文档,直接使用即可: # 当然,首先需要联网 # 如果没有git先安装一下: # sudo apt install git # 下载大佬的代码仓: git clone https://github.com/Linza
原理讲解 根据目标物块的特征,首先通过机械结构使目标物块每次被识别时,目标物块都出现在摄像头的固定角度,固定距离。这样就保证了摄像头每次识别目标物块时,目标物块都会出现在拍摄照片的固定像素范围。 其次,根据目标物块的特点(物块之间只有颜色差异)只要完成对目标物块出现范围的像素点颜色的识别,就能判断出具体是哪一个目标物块。所以采用了对特定区域像素点的颜色识别算法。从演示视频中可以看出,每次抓
1.ssh密钥登陆 ssh登陆开发作为必修课,默认密码登陆不安全又得每次输密码,有点不雅,改之。在windows上使用的是Fluent Terminal(个人使用习惯)。 1.1 因为经常使用macbook,所以先设置增加mac登陆密钥 先用密码ssh登陆x3派: ssh-keygen 一路回车就行,想增加安全性可以设置带密码的密钥。 cd .ssh cat id_rsa.pub &
安装WiringPi 安装git工具,执行以下命令: sudo apt update sudo apt install git-core 通过git在线获取WiringPi的源代码,执行以下命令: git clone https://gitee.com/study-dp/WiringPi.git 进入WiringPi目录安装WiringPi。执行以下命令: cd WiringPi
地图构建 Hint 操作环境及软硬件配置如下: OriginBot机器人(导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 1. 启动底盘和雷达 SSH连接OriginBot成功后,在终端中输入如下指令,启动机器人底盘和激光雷达: $ ros2 launch originbot_bringup originbot.launch.py u
基础功能编程 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 获取里程计消息 运行例程 启动机器人底盘后,在机器人或者PC端运行如下指令: $ ros2 run originbot_demo echo_odom 很快就可以在终端中看到里程计odom话题中的位置坐标
Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) PC:Ubuntu (≥20.04) + ROS2 (≥Foxy) 1. 速度控制 主要功能 上位机的驱动功能节点向控制器发送电机速度控制数据,控制器驱动电机执行。 协议格式 帧头:0x55,作为数据起始的标识,自定义0x55。 标识位:标识当前组数据是什么,
一,准备工作 准备工作详情见前几节内容。 旭日X3派已烧录好地平线提供的Ubuntu20.0.4或Linux系统镜像; 旭日X3派已成功安装TogetherROS; 旭日X3派已安装F37 sensor; 和旭日X3派在同一网段(有线或者连接同一无线网,IP地址前三段需保持一致)的PC; 小车硬件准备。 二,启动官方例程 使用MobaXterm,SSH登录,建立一个终端,输
机器人充电方法 Hint 操作环境及软硬件配置如下: OriginBot机器人(视觉版/导航版) 充电器:DC4.0 * 1.7mm,12.6V,800mA 欠压提醒 控制器程序中加入了电池保护,电压低于9.4V时蜂鸣器会常响报警,此时就需要尽快充电了。 充电方法 Attention 请使用OriginBot套件中自带的充电器进行充电。 确定机器
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信