文章目录 1.VIO 松耦合/紧耦合。 2. 相机和IMU的缺点及互补性 3. VIO融合算法流程及其模块分解: 4. VIO 算法核心: 5. 实验结果与总结: 6. 参考文献: 1.VIO 松耦合/紧耦合。 Visual-Inertial Odometry(VIO)即视觉惯性里程计,有时也叫视觉惯性系统(V
orb-slam 对应的github下载地址为:https://github.com/raulmur/ORB_SLAM2 实现仿真视频链接为:orb_slam_gazebo_PX4_simulation 概述 ORB-SLAM是西班牙Zaragoza大学的Raul Mur-Artal编写的视觉SLAM系统。他的论文“ORB-SLAM: a versatile andaccur
0. 简介 作为SLAM中常用的方法,其原因是因为SLAM观测不只考虑到当前帧的情况,而需要加入之前状态量的观测。就比如一个在二维平面上移动的机器人,机器人可以使用一组传感器,例如车轮里程计或激光测距仪。从这些原始测量值中,我们想要估计机器人的轨迹并构建环境地图。为了降低问题的计算复杂度,位姿图方法将原始测量值抽象出来。具体来说,它创建了一个表示机器人姿态的节点图,以及表示两个节点之间的相对变换
0. 简介 作为激光里程计,常用的方法一般是特征点法或者体素法,最近Mars实验室发表了一篇文章《Efficient and Probabilistic Adaptive Voxel Mapping for Accurate Online LiDAR Odometry》,同时还开源了代码在Github上。文中为雷达里程计提出了一种高效的概率自适应体素建图方法。地图是体素的集合,每个体素包含一个平
0. 简介 对于视觉里程计而言,在面对低纹理场景时,往往会出现退化的问题,究其原因是人造环境往往很难找到足够数量的点特征。而其他的几何视觉线索则是比较容易找到,在城市等场景中,通常表现出结构规律,如平行性或正交性,满足曼哈顿世界的假设。之前我们已经在《经典文献阅读之—PL-SLAM》文中介绍了点线SLAM的形式,相关的具体代码我们可以在Github上找到 1. 文章贡献 在本文章中,我们则进
路径规划做为机器人导航中的一个重要的技术,一个好的路径规划可以极大地提高后续跟踪控制的效果,对机器人的运行好坏程度有非常直观的表现。从最初搜索一条有效路径(如Dijkstra、A*、RRT等),到现如今通过前端搜索,后端优化的方式得到一条考虑机器人运动学、动力学,安全性的高质量路径,众多学者、工程师提出了非常有效的路径规划方法。 Hybird A* 算法只需通过搜索就可以得到一条平滑的高质
0. 简介 对于激光雷达而言,玻璃等场景一直是漏检的主要问题,而如何去采用一种有效地方法能够完成激光雷达对室内场景的玻璃物体的检测和包含,这一直是研究重点。当LiDAR数据是主要的外部输入时,玻璃对象不能正确配准。这是因为入射光主要穿过玻璃对象或从光源反射,导致玻璃表面的距离测量不准确。而文章《Cartographer_glass: 2D Graph SLAM Framework using L
前言 上文介绍使用自己的多线激光雷达来可视化、采数据,接下来就是介绍怎么使用港科大改进的A-Loam进行建图。注意注意!第六和第七章使用的都是Ubuntu18.04系统!!!!!! 1 A-LOAM 参考论文如下:LOAM: Lidar odometry and mapping in real-time A-LOAM 是 LOAM的先进实现(Advanced Implementatio
1 SLAM简介 1.1 概述 SLAM本质就是确定自己在哪里的哪里,如在苏州中心的正东边66米处。 SLAM (Simultaneous Localization and Mapping),也称为CML (Concurrent Mapping and Localization), 即时定位与地图构建,或并发建图与定位。机器人自主定位导航技术中包括:定位和地图创建(SLAM)与路径规划和运动
前言 好久没更新这部分了,最近在搞中期答辩的东西,简单补充一部分多线激光雷达建图的内容。上文介绍使用自己的激光雷达如何通过GMapping算法建图,接下来两节介绍怎么运行Velodyne的16线激光雷达,并使用港科大改进的A-Loam进行建图。 前文链接如下 1 Velodyne激光雷达 Velodyne 的 Puck 激光雷达传感器( VLP-16)是目前机器人与自动驾驶使用的主流传感
前言 前文我们已经安装了turtlebot3并运行了自带的SLAM仿真例程,完成了地图的建立与路径规划前往目标位置的任务,并首次完成了对激光雷达的启动与可视化,本文开始介绍使用自己的激光雷达如何通过GMapping算法建图。 前文链接如下 1 Gmapping算法 Gmapping算法又名Grid Mapping算法,是一种基于RBpf粒子滤波算法,即将定位和建图过程分离,先进行定位再进
前言 前文我们已经安装了turtlebot3并运行了自带的SLAM仿真例程,完成了地图的建立与路径规划前往目标位置的任务,本文开始介绍使用自己的激光雷达如何与ROS通信并可视化。 前文链接如下 1 激光雷达简介 本文使用的激光雷达为衫川的Delta-2A,某宝售价在400左右 下载官方提供的资料包,找到所使用的雷达型号,内容如下 在使用任何硬件前建议大家先将官方提供的手册进行阅读
前言 Turtlebot3(简称TB3)是继Turtlebot2之后,又一款ROS官方打造的软硬件学习平台,更小,更便宜,更好玩,该文章通过该项目提供的软件平台与例程进行SLAM简单介绍与实现。 在Turtlebot3进行SLAM仿真 1 安装Turtlebot3依赖包 打开终端,输入以下命令安装Turtlebot3依赖的包文件 sudo apt-get install
0. 简介 相信最近大家已经被Transformer给洗脑了,作者也在《多传感器融合综述—-FOV与BEV》中提到了深度学习相关的技术。这就随之带动的就是如何使用基于纯相机的鸟瞰图(BEV)感知技术来替代昂贵的激光雷达传感器,并使其能够应用在自动驾驶上,这目前是急需解决的问题,由于现在Transformer的计算仍然需要大量资源来执行车载推理,无法满足实时性。为此我们来看一下这一篇《Fast-B
0. 简介 对于视觉SLAM而言,除了使用特征点法来完成VIO以外,还可以使用光流法来完成VIO的估计。而传统的光流法受环境,光照变化严重,所以有时候会出现光流偏差等问题。所以现在有越来越多的工作朝着深度学习的方向扩展,比如说这一篇文章《FlowFormer: A Transformer Architecture for Optical Flow》,目前已经被ECCV 2022收录。这里作者也在
DWA 简介: 该包使用DWA(Dynamic Window Approach)算法实现了平面上移动机器人局部导航功能。 输入全局规划和代价地图后,局部规划器将会生成发送给移动底座的命令。该包适用于其footprint可以表示为凸多边形或者圆形的机器人,它导出配置参数为ROS参数形式,可以在启动文件进行配置,当然也可以动态配置。 这个包的ROS封装接口继承了BaseLocalPlanne
1、move_bae框架 参考:http://wiki.ros.org/move_base 1.主体介绍: move_base是ROS下关于机器人路径规划的中心枢纽。 它通过订阅激光雷达、map地图、amcl的定位等数据,然后规划出全局和局部路径,再将路径转化为机器人的速度信息,最终实现机器人导航。 首先左上角的amcl左上角的amcl模块是ROS的导航定位模
ubuntu16.04下笔记本自带摄像头编译运行PTAM ubuntu16.04下笔记本自带摄像头编译运行PTAM 转载请注明链接:https://i.cnblogs.com/EditPosts.aspx?postid=9014147 个人邮箱:feifanrensheng1@outlook.com 北航飞控一体化技术重点实验室 PTAM是视觉slam的
一、避障概念: 避障是指移动机器人在行走过程中,通过传感器感知到在其规划路线上存在静态或动态障碍物时,按照 一定的算法实时更新路径,绕过障碍物,最后达到目标点。 实现避障与导航的必要条件是环境感知,在未知或者是部分未知的环境下避障需要通过传感器获取周围环境信息,包括障碍物的尺寸、形状和位置等信息,因此传感器技术在移动机器人避障中起着十分重要的作用。 机器人避障需使用的传
ubuntu16.04下用笔记本摄像头和ROS编译运行ORB_SLAM2的单目AR例程 要编译ORB_SLAM2的ROS例程首先需要安装ROS,以及在ROS下安装usb_cam驱动并调用,最后搭建ORB_SLAM2。 1.ROS的安装 我的电脑安装的是ubuntu16.04系统,所以我安装的是2016年的发行版本ROS_Kinetic,一般的话ROS的版本是一年一更新,和ubun
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信