上篇【PX4 教程(二)】介绍了如何在 Gazebo 仿真中给 PX4 无人机添加 Livox 激光雷达,这篇博客详细介绍如何使用 FAST-LIO 对采集到的点云进行建图。 简介 Livox激光雷达使用FAST-LIO算法是一个先进的技术组合,用于实现高效和精确的同时定位与地图构建(SLAM)。 以下是关于Livox激光雷达和FAST-LIO算法结合使用的详细介绍: Livox 激光雷达 技
目录 问题背景 格式介绍 LVX 点云格式 PCD 点云格式 FMT 简介 FMT:现代 C++ 格式化库 FMT 在数据转换中的应用 从源码编译安装 FMT CMake 引入 FMT 库 LVX -> PCD 格式转换 代码解析 实现流程 源码 问题背景 Livox 激光雷达采集的数据可以通过 ROS 驱动进行读取,但是有的情况下我们并不在设备上安装 ROS ,其实
回顾上篇:在上一篇博客中,我们成功地将 Livox 的 lvx 点云格式转换为了 pcd 格式。今天,我们将基于这一成果,探索如何将 pcd 格式进一步转换为 las 点云格式。 探索 LAS 点云格式 LAS:这一格式是轻侦测和测距(LiDAR)数据的黄金标准,广泛应用于 GIS 和测绘领域。其不仅仅是三维坐标的载体,还能承载如强度、分类代码和颜色等丰富的属性信息。 格式的关键特点: 数
配置 Livox 仿真 - 提升效率与兼容性 相关博客:【图像与点云融合教程(六)】Gazebo 下的 Livox 仿真(ROS1) - 古月居 (guyuehome.com) Github: Livox_simulation_customMsg 在之前的博客中,我们已经探索了如何在Gazebo环境下配置Livox激光雷达的仿真。然而,Livox官方提供的功能包仅支持sensor_msgs::
问题背景 在进行图像和点云融合的过程中,我们通常首先在图像中进行目标检测,以确定感兴趣的对象。这一步通常涉及使用深度学习模型,如卷积神经网络(CNN),来识别和定位图像中的目标。完成目标检测后,下一步是在点云数据中定位相应的目标,这是实现三维目标检测的关键步骤。 点云数据,通常由激光雷达(LiDAR)等传感器提供,包含大量的三维空间点。这些点代表了环境中物体的位置和形状。然而,直接在这些庞大的点
1. 环境配置 官方 Github 仓库:https://github.com/Livox-SDK/livox_laser_simulation 1、创建工作空间,克隆Livox功能包: mkdir -p ws_livox/src cd ws_livox/src/ && catkin_init_workspace cd .. && catkin_m
0. 前言 Github 仓库链接:Hikvision Camera ROS2 package 0.1 问题背景 上一篇博客](https://www.guyuehome.com/blog/detail/id/12240))介绍了我开源的海康相机 ROS2 功能包,在本地机器上可以实时订阅和发布图像消息,但是在通过局域网进行多机通信的测试时,PC 端收不到边缘端发布的图像消息,不过可以通过
0. 前言 上一篇博客中介绍了基于 librviz 多线程可视化点云(进阶) 有时我们保存了单帧或者多帧点云后会调用 PCL 点云库进行一些处理,这篇博客介绍了如何在 QT 中使用 VTK 可视化点云。 效果图如下,直接上 Github 链接:ros2_qt_template 1. 无新的系统环境 PCL-1.13.1,VTK-7.1。 在通过源码编译安装 PCL 的同
0. 前言 上一篇博客: 【基于 QT5 的 ROS2 GUI 开发教程(二)】基于 librviz 可视化点云(附 Livox ROS2 驱动和功能包配置) - 古月居 (guyuehome.com) 在官方给的 Demo 上,我们需要开发自己的人机交互界面,就需要在项目中参考官方的用例,但官方只是授人以鱼,很多地方需要 QT 和 ROS2 这两者的基础和经验才行,这里我再 Debug
0. 前言 关于 ROS1 的 librviz 文档已经很完善了,但 ROS2 下的相关文档目前缺失,但在 ROS2 下开发可视化界面又是一个迫切的需求,好在官方给出了 ROS2 下 librviz 的一个简单范例,在学习的过程中,需要类比 ROS1 下的 librviz,对一些函数和头文件进行替换,迁移也就不那么困难了。 官方的范例是针对目前最新的 ROS2 Rolling 的,头文件和
0. 前言 网上对于 QT5 开发 ROS2 界面的资料几乎没有,我从 Github 上的一个仓库 Fork 了一个,进行了修改,形成一个模板,可以在此模板的基础上进行修改开发自己的 ROS2 GUI 。 Github 链接:ros2_qt_template 1. QT5 和 ROS 插件安装 下载 .run 文件,推荐使用清华源在线安装包,速度很快: 下载链接
0. 前言 对于很多传感器,网上基于 ROS1 的功能包比较多,对于 ROS2 的适配目前很少,但 ROS2 在稳定性、实时性方面具有更大的优势,可以投入实际的工业应用中。 这篇播客介绍了海康相机的 ROS2 功能包,是我在 ROS1 功能包 的基础上进行修改,最后在 Ubuntu20.04 ROS2 Foxy 下测试通过,大家可以直接克隆下来使用。 仓库链接:SEUZTh/hk_camer
0. 前言 在仿真环境中经常需要使用键盘控制无人机去拍摄一些图像和点云,相比编写代码控制无人机,使用键盘控制更方便一些。这篇博客中,我们一起来使用 C++ 编写代码来接收键盘输入以实现无人机的位置控制。 一般无人机遥控器使用的是速度控制,可以实现无人机的转向。这里之所以不使用是因为使用键盘来改变速度不便于控制,使用位置控制也难以实现无人机的转向。通常情况下,无人机的转向是通过调整其姿态(如航向
环境 系统:Ubuntu 18.04 QT版本:QT 5.12.4 QT Creator-ROS版本:4.9.2 该版本嵌入了对ROS的支持 前言 主要参考了 librviz_tutorial 的代码,但是在我的环境下运行存在问题,故做了一些修改并添加 PointCloud2 类型的点云话题消息的订阅显示,原项目是基于 QT4 ,这里我将其修改为 QT5 。 最终实现效果如下(
官方文档:livox_camera_lidar_calibration/README_cn.md at master · Livox-SDK/livox_camera_lidar_calibration (github.com) 1. 系统环境 Ubuntu 18.04 其余的配置与上一篇博客中相同(【图像与点云融合教程(一)】Ubuntu20下配置海康相机和LIVOX AVIA
前言 硬件:RTSS-Z506 V2.0(EMMC 版) Nano 飞云智盒,腾达 U9 无线网卡 软件:Ubuntu 18.04/20.04 我的这款盒子只能刷 Ubuntu 18.04,大家应该提前咨询商家 下载系统软件包 可以找自己购买的商家获取软件包 BSP 支持包:Realtimes_L4T_3243_nano_v1.5.tar.gz Linux Driver
1. 软硬件环境 雷达:LIVOX AVIA 相机:海康威视 MV-CA023-10UC Ubuntu 20.04 x64 2. 相机驱动配置 2.1 下载安装 MVS 客户端 下载链接:海康机器人-机器视觉-下载中心 (hikrobotics.com) 选择下图的MVS客户端下载: 解压后通过 deb 或 tar.gz 中的 setup.sh 进行安装均可,最终会安装在
简介: 随着人工智能技术的不断发展,语言模型在机器人领域的应用越来越广泛。ChatGPT是微软研究院开发的一个基于Transformer的预训练语言模型,其应用已经拓展到机器人领域。微软新发布了论文《ChatGPT for Robotics: Design Principles and Model Abilities》。本文将介绍ChatGPT在机器人领域的应用,并探讨其设计原则和模型能力。
前言 以场景点云为中心的点云任务(如重建、配准等)常常采用3D相机采集数据,而以物体点云为中心的点云任务大多是从3D模型离散化得到的,因为真实环境采集到的物体点云需要与环境分割并去噪的,较为麻烦,不利于大规模数据集的制作。 常见的开源点云数据集: 场景点云:3DMatch 物体点云:ModelNet40、ShapeNet 考虑到物体点云的采集困难,一些在仿真环境下获取点云
内容列表 概要 UnityService 创建 Unity 服务 启动客户端 调用服务 启动位置服务 创建 Unity 服务调用方 概要 这篇博客将介绍: 创建一个简单的 Unity 场景,该场景在 Unity 中运行服务,该服务接受具有游戏对象名称的请求,并使用游戏对象在 ROS 坐标系中的姿势(位置和方向)进行响应。 创建一
目录 概要 创建 Unity 发布服务器 启动 Echo 监视器 创建 Unity 订阅服务器 概要 项目 Github 链接:Unity-Technologies/Unity-Robotics-Hub: Central repository for tools, tutorials, resources, and documentation for robotics si
安装 Unity Robotics Demo (如果使用的是该 Github 存储库提供的 Dockerfile 则不需要执行该步)将 unity_robotics_demo 和 unity_robotics_demo_msgs复制到 Catkin 工作空间下的 src 文件夹下: ROS1:从 tutorials/ros_unity_integration/ros_packages
前言 随着元宇宙、数字孪生的大火,机器人也可以通过 VR 或 AR 的视角呈现,在虚拟空间中建立机器人的数字化模型,实现虚实结合。 接下来这个专栏将会介绍在 Unity 中使用 ROS ,初学者入门可以参考本教程。 系统环境 Ubuntu 20.04 Docker 桌面版 4.11.0 Unity 2020 Docker 桌面版安装 参考链接:Install Docke
上一篇: 【点云配准|TEASER++】论文介绍&环境配置 源码解读 以 examples/teaser_cpp_fpfh/teaser_cpp_fpfh.cc 为例。 代码主要流程为: 加载 .ply 源点云模型 将源点云数据写入 Eigen 矩阵 执行旋转和平移变换得到目标点云 对目标点云加噪声和外点 将目标点云从 Eigen 矩阵转换为 tease
项目介绍 论文:《The Perfect Match: 3D Point Cloud Matching with Smoothed Densities》 论文链接:https://arxiv.org/abs/1811.06879 Github 链接:https://github.com/zgojcic/3DSmoothNet 系统环境 在 AutoDL 上租用的服务器的环境:
介绍 MIT出品,发表在顶刊 TRO 上 Paper: TEASER: Fast and Certifiable Point Cloud Registration Github: https://github.com/MIT-SPARK/TEASER-plusplus 1.1K star Guide: https://teaser.readthedocs.io/en/latest/in
5.6 OpenGL3D界面展示及改进 5.6.1 OpenGL介绍 OpenGL是一个图形库,用来渲染2D、3D图形。它并不是一个API(Application Programming Interface)应用程序编程接口,仅仅是一个由Khronos组织制定并维护的规范。这个规范严格规定了每个函数该如何执行,以及它们的输出值。至于内部具体每个函数是如何实现的,将由OpenGL库的开发者自行决
上一篇地址:https://www.guyuehome.com/39877 第四章 伺服驱动器与变频器的基本原理与接线 4.1 伺服驱动器 伺服驱动器又称为“伺服控制器”、“伺服放大器”,是用来控制伺服电机的一种控制器,其作用类似于变频器作用于普通交流马达,属于伺服系统的一部分,主要应用于高精度的定位系统。一般是通过位置、速度和力矩三种方式对伺服电机进行控制,实现高精度的传动系统定位,目前是
第一章 绪论 1.1 设计内容 本文章旨在设计并开发一套三维轨迹规划与控制的三维雕刻机系统,系统主要涵盖的功能有如下几点: 手动功能:包括如各轴点动,主轴启停,正反转控制,速度设定等; 参数设置功能:各轴运动脉冲当量、轴初始速度、加速度、运行速度等设置; 自动加工功能:能够读取G代码,解释并翻译给正运动控制器调用运动函数,如三轴插补函数; 状态显示、动态加工轨迹显示:各轴运动位置、
问题背景 在使用torch_dct时报错,经调研,是torch版本过高,dct中调用的旧的fft相关函数已经更新。 探索过程 参考[2]中说的对应关系如下: 感觉博客[2]讲的比较乱,而且它只提了对于2D,而我现在需要处理1D的信号,去pytorch官网[3]才看明白函数是咋用的。 torch_dct中对于2D和3D的DCT都是调用1D的DCT函数实现的,而1D的DCT中调用了1
内容列表 前言 方法 方法一 方法二 参考 前言 从头训练一个网络是需要耗费大量算力的,主干网络往往采用一些特征提取能力很强的网络如Resnet50、HRNet w32等等。若自己对模型结构进行修改,就不能直接载入完整的预训练模型。 方法 方法一 载入权重之后,将最后一个全连接层的输出大小改为 5(默认是 1000 )。 import os im
内容列表 问题背景 多卡并行重新指定主卡 参考链接 问题背景 开源代码中使用了多卡并行来计算,我的服务器上有4张显卡,其中0号显卡已经被占用,我只想用 3 号显卡来训练模型,但当我将 id 改为 3 时,提示 0 号显卡上有参数。报错信息如下(当时没有保存,从网上复制一条报错信息,数字可能存在不同): RuntimeError: module must ha
前言 深度学习的推理预测大多是 Python 脚本,一些数据预处理的代码可能是由 C++ 的 OpenCV 和 PCL 来编写,为了在 Python 脚本中调用 C++ 编写的代码,可以使用 Pybind11 。 在使用线段检测分割算法 ELSED 的官方代码时,官方提供了一个 Pybind11 的使用示例,具有很好的参考性。 Open in Colab 环境配置 # 新建项目目录
背景 最近在做工业场景下结合深度图和RGB图像的实例分割,需要做特征的融合,添加一些注意力模块。之前使用过 detectron2 ,该框架主要使用 Mask R-CNN 进行实例分割,若对网络做修改,添加自己需要的模块不是那么方便,而且其中文社区涉及的内容也比较浅。基于此的 mask2former 的官方实现的 star 很少,issues 中的很多问题都没有得到有效的解决。相比之下,mmlab
catkin_make编译错误如下: Base path: /home/zth/catkin_ws Source space: /home/zth/catkin_ws/src Build space: /home/zth/catkin_ws/build Devel space: /home/zth/catkin_ws/devel Install space: /home/zth/catk
目录 数据预处理 算法流程 源码 [1] 点云转深度图 [2] 物品分割代码 数据预处理 RGB图像和深度图由Kinect 拍摄,需要转换为点云格式才能输入 PCL 点云库进行处理。为了便于后续的处理,我选择将其转换为有序点云而不是无序点云。代码见文末[1]。 RGB图像 Depth图像 有序点云 有序点云中存在很多噪声,这些对于分割物体有较大
安装方法 不需要安装什么依赖,直接安装即可: sudo apt-get update sudo apt install libpcl-dev 参考链接:Ubuntu20.04 Ubuntu18.04安装pcl点云库 卸载方法 sudo apt remove libpcl-dev 可能存在的问题 问题1 在一个崭新的Ubuntu20.04上安装时出现了问题: 更换
文章目录 1. 切换 QT4 和 QT5 2. Qt Creator不同Qt版本切换 3. 安装 QT charts 参考 1. 切换 QT4 和 QT5 查看 qmake 版本: qmake --version 奇怪的是我的就是显示 QT5 修改配置文件: cd /usr/lib/x86_64-linux-gnu/qt-default/qtchooser
cd ~/桌面/ touch 软件名.desktop name, Exec, Icon填自己的: [Desktop Entry]Encoding=UTF-8Name=软件名称Exec=/home/用户名/AppImage/软件名.AppImageIcon=/home/用户名/.icons/某某/pngTerminal=FalseType=ApplicationStartupNotify=Fa
原因 python2中的编码bug。 LANG=zn jupyter notebook该方法对我的无效。 解决方法 touch /usr/local/lib/python2.7/site-packages/sitecustomize.py 在新建的sitecustomize.py文件中写: import syssys.setdefaultencoding(‘utf-8’) 修
文章目录 1. 下载OpenCV和OpenCV-contrib2. 安装依赖包3. 安装opencv和opencv_contrib3.1 解压3.2 将解压后的contrib文件移动至opencv-3.4.13文件下3.3 在opencv-3.4.5文件夹中新建build文件夹用于后续编译和生成3.4 进入bulid文件夹并进行第一次cmake3.5 安装4. 测试5. 后续问题参考 1. 下
写在前面 自己参考其他博客安装的,非随意复制而来,过程无误、无省略,2021年3月19日安装的目前最新的环境,对之后的最新版无需求的,可直接复制命令安装,有需求的需要对应版本几个东西是否已经兼容 0. 背景阅读 一开始我只是想要安装pytorch,并不了解cuda, cudnn 和 anaconda 之间的关系。 cuda和cudnn之间的关系:CUDA与cuDNN,cuda是螺丝刀,cu
文章目录 1. 安装 2. 卸载 3. 参考博客 1. 安装 下载opencv2.4.9安装包 提取压缩包到一个地方 进入解压后的文件(夹)(好像Linux没有文件夹这一说?都是文件)opencv-2.4.9 新建一个文件 mkdir release 5.cd release cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTAL
0. 前言 截至博客发布,Mask2Former rank 7 在 COCO test-dev 实例分割排名中。 Github链接:https://github.com/facebookresearch/Mask2Former 1. 环境配置 conda create -n mask2former python=3.8 conda activate mask2former pip install
1. 安装python $ sudo apt update $ sudo apt install software-properties-common 将Deadsnakes PPA添加到系统的来源列表中: $ sudo add-apt-repository ppa:deadsnakes/ppa 启用存储库后,请使用以下命令安装Python 3.9: $ sudo apt inst
0. 前言 这篇博客作为下篇博客的准备工作,下篇博客介绍 Mask2Former 的使用,2022年了,当然要用 Transformer 来代替卷积。Github:https://github.com/facebookresearch/Mask2Former 1. 数据集制作 1.1 数据标注 1.1.1 自己标注 标注软件Labelme:https://github.com/wkentaro/l
前言 CPU对于图形运算能力有限,使用CUDA加速可以大大提高点云处理的速度。 默认电脑有英伟达显卡并且已经配置好显卡驱动、CUDA和cudnn环境。 环境配置 系统要求 系统:Ubuntu适用,Win不适用。 我的系统:Ubuntu 20.04 检查CUDA版本 nvcc --version | grep "release" | awk '{print $6}' | cut -c2- 检
前言 Detectron2是Facebook AI Research的下一代库,提供最先进的检测和分割算法。它是Detectron和maskrcnn-benchmark基准的继承者。由于其文档丰富,代码有长久维护,所以建议使用该版本的Mask-RCNN。 Github链接:https://github.com/facebookresearch/detectron2 安装 官方指导链接:In
项目目录 . ├── .vscode │ ├── launch.json │ └── setting.json ├── build ├── CMakeLists.txt ├── data │ └── FeatureLocation8.pcd ├── include ├── NormalEstimation.cpp └── src 4 directories, 3 files CMa
电脑环境 Ubuntu 20.04 PCL-1.10 VS code 推荐理由 轻量化,插件多,自定义性更强。 可能很多人不会用VScode来编译运行C++,Visual Studio 2019太过于智能了,用户不需要写CMakeLists.txt,但是它只支持Windows下的C++开发,而VScode上手写C++还是有一定门槛的,下面把我经验介绍给大家,基本的使用就没啥问题了。 创建项
电脑环境 Ubuntu 20.04 PCL-1.10 安装PCL 直接安装,没有从源码编译安装。 sudo apt-get update sudo apt-get install git build-essential linux-libc-dev sudo apt-get install cmake cmake-gui sudo apt-get install libusb-1.0-0-
开发环境 Ubuntu 20.04 RTX3070 开源代码 https://github.com/matterport/Mask_RCNN https://github.com/facebookresearch/DetectronFacebook曾发布过名叫Detecron的项目,也是一款图像分割与识别平台,其中也包含Mask R-CNN。不过它是基于Caffe 2深度学习框架编
1. 背景 随着近些年来的无人机技术的快速发展,无人机已经广泛应用于了各行各业当中。 而由于无人机自身的复杂性,对于无人机的控制在一直以来都是一个难以跨越的门槛。 PX4是平台无关的一个开源自动驾驶仪软件,可以驱动无人机。它可以被烧写在某些硬件,并与地面控制站在一起组成一个完全独立的自动驾驶系统,这大大降低了无人机的使用门槛。 2. 需求分析 实时性:由于无人机的高速运动,其必须具有良好的实时
1. 实现效果 2. 前言 关于在coppeliaSim中使用Python控制UR5机器人有一个开源项目供参考:https://github.com/Junzhuodu/ur5_vrep_python 在Vrep改名为coppeliaSim之后,vrep.py更名为sim.py,vrepConst.py更名为simConst.py,remoteApi.so(Ubuntu 用户使用该文件)
【Webots项目实战|超市机器人(一)】需求建模|模型设计|基于Webots的Youbot模型搭建 视频演示:https://video.zhihu.com/video/1377498292964802560 内容列表 4 机器人控制器设计与实现 4.1 开发环境 4.2 控制器整体设计 4.3 状态机设计 状态机什么时候用? 状态机什么时候不用? 状态机的数据传递 4.4 You
文章目录 实现效果 一些设置 添加手爪 工具坐标中心点 TCP 的设置 代码实现 实现效果 注意:关于目标点的选取要合适,否则可能无法生成可以抵达该点的轨迹。 一些设置 添加手爪 这里我添加的是 ROBOTIQ_85 这款手爪,下面展示如何将手爪添加到机械臂末端: 工具坐标中心点 TCP 的设置 将 tip 和
文章目录 实现效果 一些设置 机械臂关节角范围设定 代码实现 改进 1 改进 2 代码实现 实现效果 可以看到机械臂穿过地面,这是由于没有设置机械臂为可碰撞,在“改进”中增加了该内容。 一些设置 机械臂关节角范围设定 对每个关节执行下面的操作:在代码中保持一致: local j1_space=simOMP
文章目录 实现效果 一些设置 导航点设置 添加连接用于碰撞的设置 代码实现 终端输出 改进 实现效果 给定目标点,生成机械臂工具坐标中心点到达该目标点时,关节角的配置。 因为机械臂在抓取物品时需要先到达“作业临近点”,所以这里设置的目标点在原来的Z轴上偏移一小段距离。 可以看到此时生成的关节角的配置只是xyz位置相同,欧拉角表示的姿
文章目录 解析 代码实现 终端输出 解析 官方给出了 motionPlanningDemo1.ttt 这个代码范例,其中有在计算不同关节角下,机械臂末端的函数 getConfigConfigDistance用到了一个常量 metric,有几个关节,metric中就有几个元素。 motionPlanningAndGraspingDemo.ttt
文章目录 模型设置 设定关节角的代码 注意 参考链接 模型设置 为了避免下图情形发生需要设置模型为非动态的,UR机器人是这样的,但是 KUKA 机器人没有设置也不会散架。 设定关节角的代码 forbidThreadSwitches=function(forbid) if forbid then forbidLeve
项目开源地址:https://github.com/SEUZTh/superMarketRobot_ws/tree/v2 1. 机器人需求建模 1.1 需求分析 超市机器人相当于当下流行的 AGV 小车,结合此项目中超市机器人的需求和实际种 AGV 小车的 应用需求,经过综合考量,我认为其应满足如下的外部结构需求和其他非功能需求。 1.1.1 外部接口需求 用户接口: 上位机界面:实时监控
前情提要:【Tutlebot迎宾机器人(一)】总体原理与设计【Tutlebot迎宾机器人(二)】具体开发实现【Tutlebot迎宾机器人(三)】模块封装及状态机实现 3. 实验评估 3.1 Gazebo 模型测试 终端进入工作区,输入roslaunch room.launch启动之前在 gazebo 中建好的 world 和 turtlebot3 的 waffle 模型,整个房间的俯视图如图
前情提要:【Tutlebot迎宾机器人(一)】总体原理与设计【Tutlebot迎宾机器人(二)】具体开发实现 2.5 各个模块的 python 封装 我进行的是状态机的编写,同时负责整个系统的集成,队友们提供给我的各个模块的代码只编写了发布者或服务器,并没有提供订阅者和客户端,并且大多代码没有进行封装。为了便于在状态机中通过 对象或函数直接订阅话题或调用服务器,我将组内所有模块的调用封装成类或
上一篇:【Tutlebot迎宾机器人(一)】总体原理与设计 2. 具体开发实现 2.1 Gazebo 室内和 Turtlebot3 模型搭建及建图 2.1.1 室内环境的搭建 房间内各元素其中部分采用 gazebo 模型中自带的 marble table 和 table,房间另外所需的 sofa 和 chair 等由正方体堆砌而成,如图 7 所示。在模拟仿真三个客人时,采用了两种方案。其一是使
0. 前言 项目代码托管在https://github.com/SEUZTh/welRbot的smach_state分支。 1. 总体原理与设计 1.1 软件总体架构 运行环境为:Ubuntu16.04,ROS Kinetic,Gazebo 7,Python2,Python3,C++11。具体环境配置请见此项目 Github 仓库 README.md。此次项目,采取面向对象体系结构风格来对软件
0. 下载链接 realsense-ros:https://github.com/IntelRealSense/realsense-ros 1. 查看模型 roslaunch realsense2_description view_d435_model.launch 2. 将相机添加到 UR3 模型中 2.1 新建 ur3_ft_gripper140_realsensed435_robot
0. 准备工作0.1 查看现在的 UR3 机器人模样安装 robotiq_ft300.urdf前的 UR3 机器人是这样的(注意末端的样子): roslaunch ur_description view_ur3.launch 0.2 robotiq下载链接https://github.com/ros-industrial/robotiq 0.3 文件路径各个文件的路径见效果图的上面部分。1.
文章目录 终端输出的错误 解决方法 终端输出的错误没有设置 pid: [ERROR] [1627052671.393262001, 0.145000000]: No p gain specified for pid. Namespace: /gazebo_ros_control/pid_gains/shoulder_pan_joint [ERROR] [1627052671.393864586,
系统环境 MacBook Pro M1 Parallels Desktop 17.0 Ubuntu 20.04 arm64 Ubuntu 20.04 amd64 完全可以参考本教程。 ROS2 foxy 安装 从源码安装 ROS2 foxy 通过源码,可以安装最新的发布版本。 参考网址:https://docs.ros.org/en/foxy/Installation/Ubuntu-Install
文章目录 下载链接 修改方法 下载链接 UR5 模型链接:https://github.com/ros-industrial/universal_robotKinect V2 模型链接:https://github.com/wangxian4423/kinect_v2_udrf 修改方法 将下图中的内容复制: 粘贴到下图位置,并注释掉其中一行: 这里我复制 ur5.launch 的内容
焊接机器人的分类和特点 三种焊接机器人:概念,特点(了解),精度/持重要求 焊接机器人系统的组成 点焊机器人组成图 焊钳分类:从外形、驱动和变压器分(结合图比较理解) 综上,点焊机器人焊钳主要以驱动和控制相互组合,可以采用工频气动式、工频伺服式、中频气动式、中频伺服式。这几种形式各有特点,从技术优势和发展趋势来看,中频伺服机器人焊钳应是未来的主流,它集中了中频直流点焊和伺服驱动的优势
[TOC] 1. 系统环境 Ubuntu 18.04 OpenCV 3.4.6 RTX 3070 2. 下载并测试 DarkNet DarkNet YOLO 官方网站:https://pjreddie.com/darknet/yolo/ git clone https://github.com/pjreddie/darknet # 克隆项目 cd darknet # 进入文件夹 make #
搬运机器人系统组成 搬运与分拣、码垛、装配的区别 搬运机器人的特点: 适应对象:大批量、重复性强或是工件重量较大以及工作环境具有高温、粉尘等条件恶劣情况。 特点:定位精确、生产质量稳定、工作节拍可调、运行平稳可靠、维修方便。 码垛:码垛机器人可视为特殊的搬运机器人,与搬运区别不大,通常认为本体更大一些,多为4轴,且有特殊的辅助机构(例如平行四边形结构);精度低;一般处于物流的末端; 分拣:特殊
官方手册参考链接:Gazebo 多机仿真 1. 运行多机仿真 # Clone the PX4/PX4-Autopilot code cd PX4-Autopilot git submodule update --init --recursive # Source your environment(这样设置的环境变量只在当前终端有效) source Tools/setup_gazebo.bash
第5章离线编程 离线编程的概念 离线编程定义 工业机器人离线编程系统的特点: 利用计算机图形学的成果,建立机器人及其工作环境的几何模型,通过对图形的控制和操作,使用机器人编程语言描述作业任务,然后对编程的结果进行三维图形动画仿真,离线计算、规划和调试机器人程序的正确性,并生成机器人控制器可执行的代码,最后通过通讯接口发送至机器人控制器。 在线示教vs 离线编程 离线编程的局限性 离线编程技术的应
官方手册参考链接:https://docs.px4.io/master/zh/ros/mavros_offboard.html 0. 准备工作 0.1 安装 ROS Melodic 和 PX4 wget https://raw.githubusercontent.com/PX4/Devguide/master/build_scripts/ubuntu_sim_ros_melodic.sh ba
1. Realsense SDK 安装 官方 SDK 下载链接:https://github.com/IntelRealSense/librealsense/releases 1.1 Win10 系统 1.2 Ubuntu 系统 官方指南:Linux/Ubuntu - RealSense SDK 2.0 构建指南 官方手册上将各个版本的 Ubuntu 以及其他 Linux 系统的安装步骤
第3章 控制系统与运动控制 工业机器人控制器 分类:按开放程度,体系结构分类 集中式控制器vs 分布式控制器,原理,比较 集中式控制 分布式控制 原理 “分散控制,集中管理”,为一个开放、实时、精确的机器人控制系统。常采用两级控制方式,由上位机和下位机组成。 优点 硬件成本较低,便于信息的采集和分析,易于实现系统的最优控制,整体性与协调性较好
第1章 绪论 工业机器人的定义 定义,四个共同特征 共同特征:结构化、通用性、智能化 工业机器人的分类 按技术水平分类的三代机器人及其特点,按构型分类的机器人类别及特点 表格 1按工业机器人的技术等级划分 第n代工业机器人 分类 特点 1 示教再现型机器人 (计算智能型) 第一代工业机器人主要采取“示教-再现”编程方式,能够按照人类预先示教的轨迹、行为、顺序和速度重
0. 前言 之前使用ROS主要是做移动机器人,认为自己的ROS已经用的很熟练了,但是接触机械臂后,发现 Moveit 使用起来没有那么方便,在学长的建议下,开始使用 Coppeliasim。 Coppeliasim 就是曾经大名鼎鼎的 V-rep,提供了 Lua、C++、Python、ROS1、ROS2 等 API接口,十分方便,而且仿真速度很快,模型渲染的也不错,相比于 Gazebo 中的 U
有些自动标定的工具你可以参考一下,不标定的话图像和点云对应不上
纠错:应该是 sudo sysctl -w net.core.rmem_max=21474836472147483648这个值是无效的
输入mesh,生成点云
博主已经很久不搞无人机了,你参考一下专栏里其他几篇博客看看环境有没有问题
根据平面和其上的物品
哥已经不搞PX4了,水货搞不成PX4哈哈哈
请问您的大作在哪可以拜读?
玩好几年PX4,还能天天看中文博客?水平总要进步到官方文档吧!PX4的安装脚本里有安装gazebo这一项! https://github.com/PX4/PX4-Autopilot/blob/master/Tools/setup/ubuntu.sh
这篇博客不是我在这个网站发的,是网站自动从我的csdn上转载的!没人求你看
安装过了就跳过,没安装过的就跟着安装,环境配置失败心情不好可以理解,但网络不是发泄情绪的地方,以伤害别人的积极性来发泄自己大可不必,有问题去Github issue上一般都有答案
博客是我复盘时写的,没有从终端里复制命令,复制过来的命令里文件名没有改成arm64而已,一个缺少的文件你也安装不了,终端会提醒你文件夹下没有该文件,tab键补全会自动补全文件夹下存在的文件名,揪着这一点来打击别人分享的积极性实在令人心寒!
关于Ubuntu实体机,网上有很多安装方法了,我这边主要记录网上缺少的Mac开发环境下的
我是在M1 Mac下的Ubuntu虚拟机里安装的,第一行写明了我的开发环境,断章取义不可取哦!
QQ: 1321197594
Webots官方团队说已经解决了这个问题,详情见https://github.com/cyberbotics/webots_ros/issues/64#issuecomment-1017422476
我安装的是这个版本
经过测试,在Ubuntu20.04上可完全参考Ubuntu18.04的安装方法
需要将工作空间路径添加到.bashrc中,需要先编译功能包,如果是python文件需要设置为可执行程序。关于工作空间的创建和编译可以参考这里https://zhangtianhao.blog.csdn.net/article/details/119081460
先尝试一下Turtlebot吧,导航、路径规划先调用现成的库,还有语音识别与合成,以及Kinect深度相机的使用。
古月居优秀创作者
积分
粉丝
勋章
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信