robot_pose_ekf 功能包 功能包简介 robot_pose_ekf软件包用于基于来自不同来源的(部分)位姿测量值来估计机器人的3D姿势。它使用带有6D模型(3D位置和3D方向)的扩展卡尔曼滤波器,将来自车轮里程计,IMU传感器和视觉里程计的测量结果结合起来。基本思想是提供与不同传感器的松散耦合集成,其中传感器信号以ROS消息的形式接收。 安装 下载源码 git clone h
0. 简介 之前作者在《激光雷达动态障碍物滤除-调研与展望》以及《3D帧间匹配——-剔除动态障碍物》中提到了如何通过各种方法来完成动态障碍物的滤波。而本文也将围绕着如何完成动态障碍物滤波来展开,来介绍《ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object Removal for Static 3D Point Clou
0. 简介 在之前,作者曾经转过一篇《一文详解ORB-SLAM3》的文章。那篇文章中提到了ORB-SLAM3是一个支持视觉、视觉加惯导、混合地图的SLAM系统,可以在单目,双目和RGB-D相机上利用针孔或者鱼眼模型运行。与ORB-SLAM2相比,ORB-SLAM3在处理大视差和长时间未观测到的场景时效果更好。它还提供了更准确的帧间运动估计和更快的处理速度。此外,ORB-SLAM3还支持更多的传感
本文旨在介绍使用OptiTrack光学跟踪系统和Turtlebot机器人进行视觉SLAM定位实验的详细流程,包括实验平台搭建过程、数据处理过程以及SLAM估计评估方法。由于涉及知识较多,部分内容只给出了相关参考博文链接。 1 实验平台搭建 实验平台包括OptiTrack光学跟踪系统和Turtlebot数据采集平台两部分,OptiTrack系统用于获取机器人运动轨迹真值,Turtlebot数据采
目录 ROS-kinetic LIO-SAM作者推荐的依赖环境 手动下载安装GTSAM 建立一个catkin工作空间,编译LIO-SAM LIO-SAM编译失败 vmware共享文件问题 运行LIO-SAM 运行报错 保存点云 安装PCL VMWARE workstation15+UBUNTU16.04.7+ros-kinetic+gtsam4.0.0 (默认16.04比较
1. 前言 之前忘记发布了,现在补上。 该方法还是基于autoware1.10.0,openplanner的代码部分需要修改。这部分需要加载vector map,所以需要autoware网站上提供的地图工具。具体vector map工具请参考autoware官网。 各个配置可以参考之前的文章。 2. 配置 (1)Autoware的Runtime Manager的Setup项目配置
一. 前言 本小结着重介绍一下vision_ssd_detect部分。 二. 安装 (1)下载ssdcaffe,一定要安装在home目录下,否则vision_ssd_detect.launch文件中的network_definition_file和pretrained_model_file路径会有变化。 % git clone -b ssd https://github.com/we
一. 前言 人人为我,我为人人 我不喜欢讲一些网络上抄的网络模型,全是干货,让大家直接上手干,如果想探讨可以联系我。 请大家按照我的Autoware 1.14安装 二. 安装 (1)下载ENet,一定要安装在home目录下,否则vision_segment_enet_detect.launch文件中的network_definition_file和pretrained_model_
原文:http://www.cnblogs.com/gaoxiang12/p/3695962.html 视觉SLAM漫谈 1. 前言 开始做SLAM(机器人同时定位与建图)研究已经近一年了。从一年级开始对这个方向产生兴趣,到现在为止,也算是对这个领域有了大致的了解。然而越了解,越觉得这个方向难度很大。总体来讲有以下几个原因: 入门资料很少。虽然国内也有不少人在做,但这方面
最近在摸OriginBot的自动导航功能,写一篇博客记录一下。 分为两部分, 目录结构解释: 说明每一个文件或者代码的作用 代码和配置文件解: 对具体的代码和配置项进行解释。 后面的解释不一定正确,欢迎指正。 目录结构解释 当前originbot自动导航的代码在这里,目录结构如下,我对其中一些目录和文件的作用添加了注释,可以帮助在高层级理解整个目录的结构,至于具体的代码的注释看
一. 前言 人人为我,我为人人。 安装版本: Ubuntu: 18.04 Autoware: 1.14 Nvidia Driver: recommend Cuda: 10.0.130_410.48 + Patch cudnn: 10.0-linux-x64-v7.6.5.32 opencv:3.4.0 caffe:recommend cmake:3.20.1 百度网盘:ht
前言:测试一下Autoware 下的 CNN LiDAR Baidu Object Segmenter。我的环境是Ubuntu18.04+CUDA10.0+cudnn+ros melodic+opencv4 因为遇到了太多的坑,分享个大家,顺便也留一个记录。 安装最坑的是这个错误:undefined reference to google::FlagRegisterer::FlagRegist
配置空间 机器人规划的配置空间概念:一个空间包含所有机器人自由度的机器人配置,描述为C-space 机器人配置:表示对机器人上面所以点的位置的描述 机器人自由度:规划的时候用最少的坐标数量去表示机器人配置,例如无人机规划,在微分平坦中进行规划则是x\y\z\yaw四个变量,所以对于无人机轨迹规划来说有四个自由度。 机器人配置空间:一个空间包含所有机器人自由度的机器人配置,描述为C-sp
0. 简介 终生学习作为近年来比较火的一种深度学习方式,导航终身学习(LLfN)旨在解决标准导航问题的一种新变体,在该问题中,智能体在有限的内存预算下,通过学习提高在线经验或跨环境的导航性能。而最近有一篇文章《A Lifelong Learning Approach to Mobile Robot Navigation》提出了一种新的终身学习导航(LLfN),它完全基于移动机器人自身的经验来改进
0. 简介 在我们之前接触的算法中,基本上都是要处理帧间雷达畸变的,类似于VSLAM系统,频率固定(例如10Hz), 而实际上,激光雷达点是按照不同的时间瞬间顺序采样的,将这些点累积到帧中会引入人工运动畸变,并且会对地图结果和里程计精度产生负面影响。低帧率还会增加里程计的延迟并限制可达带宽,其中里程计带宽类比于动态系统的带宽,即系统增益下降到0.707的频率。里程计带宽表示运动速度可以多快,里程
0. 简介 多波束激光雷达传感器,常用于自动驾驶汽车和移动机器人,获取三维范围扫描序列(“帧”)。由于角度扫描分辨率有限和遮挡,每帧只稀疏地覆盖场景。稀疏性限制了下游过程的性能,如语义分割或表面重建。幸运的是,当传感器移动时,从不同的视点捕获帧。这提供了补充信息,并在公共场景坐标系中累积时,产生了更密集的采样和对基础三维场景的更全面覆盖。然而,扫描的场景通常包含移动的物体。仅通过补偿扫描仪的运动
文章目录 1. DWA(Dynamic window approach) 1.1 机器人运动模型 1.2 速度采样 1.3 评价函数 2. 实践案例——基于ROS实现Astar与DWA算法 参考文献 1. DWA(Dynamic window approach) 动态窗口法(DWA)主要是在速度空间中采样多组速度,并模拟机器人在这些速度下一定
文章目录 前言 1. 导航的相关启动和配置文件 1.1 demo01_gazebo.launch 1.2 nav06_path.launch 1.3 nav04_amcl.launch 1.4 nav05_path.launch 1.5 move_base_params.yaml 1.6 global_planner_params.yaml 2. Astar路
文章目录 前言 1. 涉及的核心配置文件与启动文件 1.1 demo01_gazebo.launch 1.2 nav06_path.launch 1.3 nav04_amcl.launch 1.4 nav05_path.launch 1.5 move_base_params.yaml 1.6 dwa_local_planner_params.yaml 2. 调
最近做产设和综述把头都整晕了,本来想认真更新GPU那篇DSP的姊妹篇,突然觉得太长了实在是没有写的欲望,还是写篇杂文算了。。。一看这个标题就知道 首先如果没有关于机器人状态估计(4)-成长路径与能力提升这块基础知识建议自行劝退。。。别往下看了,还差得太远。 之前有提过: 一个完美的VIO,其实是一个既要又要还要且要的东西,非常的恶心: 1.既要位姿准确(ORB-SLAM3, VINS-MO
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信