0. 简介 我们知道激光雷达作为自动驾驶中最为精准的传感器,它可以在绝大多数场景下提供较为精准的定位信息,同时也有很多工作用激光做重定位工作。而《 CVTNet: A Cross-View Transformer Network for Place Recognition Using LiDAR Data》 这个工作就是基于激光雷达的地点识别(LPR)来完成在没有GPS的环境中识别以前行驶过的地点
1.本篇思维导图 2. 3D激光雷达传感器分类 3. 机械激光雷达 直观视频感受:Velodyne优点:360°视野,精度高,工作稳定,成像快缺点:成本较高,不符合自动驾驶车规,生命周期短,主要厂商:Velydone、禾赛、速腾原理:激光雷达通过测量激光信号的时间差和相位差来确定距离,对于每个点来说,原理如图所示 机械式激光雷达可实现360°扫描,一般有4/16/32/
四足机器人导航可以采用多种方案,对于小型室内机器人更多的会采用2D雷达运行SLAM算法实现地图的构建,典型的地图算法包括HectorMap、Gmapping,由Google推出的 Cartographer SLAM是目前公认效果较好的2D 建图和定位算法。其可以融合雷达、IMU和机器人里程计,采用图优化因此相比前两个SLAM算法具有更好的建图效果,目前室内扫地机器人或轮式底盘都会采用该方案。 对
0. 简介 对于激光SLAM来说,现在越来越多的算法不仅仅局限于点线等简答特征的场景了,文章《PLC-LiSLAM: LiDAR SLAM With Planes, Lines,and Cylinders》说到,平面、线段与圆柱体广泛存在于人造环境中。为此作者提出了一个使用这些landmark的激光雷达SLAM系统。目前已有工作做了类似于BA的平面adjustment(即.PA),但是这类工作在缺
0. 简介 上一节中我们讲了pcl::VoxelGrid数据中的降采样,至此为止最简单的三个部分就已经讲解完毕了,下面我们来更进阶一点,这一讲主要来看一下噪声滤除这部分的操作。噪声滤除是点云处理中的一项重要任务,可以提高点云的质量和准确性。在噪声滤除过程中,通常需要根据点云密度来估计合适的邻域半径,并在邻域内对点进行平滑处理,以消除噪声点。 1. CUDA与Thrust CUDA是一种并行计
1.本篇大纲 2.前端里程计综述解决的问题:由原始点云信息求解得到两个关键帧之间的相对位姿约束输入:原始点云信息输出:两个时刻之间的位姿关系 P = [R T] (4x4)主流流程: 点云预处理(提取特征)→建立Loss模型→最优化模型求解→得到P矩阵 3.直接匹配的ICP系列1)思路:对原始点云进行采样→寻找最近关联点建立Loss模型→求解R,T2)主要方法框图:3)模型推导 4.直接匹配
简介 上一篇跑了一下VINS_Fusion自带的demo,用的是几个常用的开源数据集,这篇文章主要是将VINS_Fusion用在自己的实验室设备上,在进行前期参数标定、config文件修改、精度验证过程中对算法有更深次理解,也方便后期开展代码阅读。 2.相机参数标定2.1相机型号realsense_d435i是一个很常用的相机,主要包含话题如下 1.imu话题
0. 简介 在一些比较空旷,且没有参照的场地中,我们很难利用车道线或者稠密的激光点云地图来完成定位,而本文《Monocular Simultaneous Localization and Mapping using Ground Textures》仅使用向下朝向的单目相机拍摄的地面纹理图像,就能实现令人印象深刻的定位性能。这提供了一种可靠的导航方法,能抵抗特征稀疏环境和具有挑战性的光照条件。然而
前言 usb_cam功能包简介为了丰富机器人与外界的交互方式,已经增加了与机器人的语音交互方式,不仅使机器人能够说话发声,还能听懂我们说的话,但是如果只有语音交互的话机器人就是一个盲人,无法看到这个色彩斑斓的大千世界,因此我们就需要为机器人增加视觉识别功能。现在市面上最常见的还是USB摄像头,物美价廉,要想使USB摄像头在ROS下正常工作,我们就需要一个软件包来支持,现在ROS下最常用的usb摄
Dijkstra 算法 Dijkstra 算法与BFS算法的区别就是 : 从容器中弹出接下来要访问的节点的规则不同 BFS 弹出: 层级最浅的原则,队列里最下方的元素 Dijkstra 弹出: 代价最小的节点g(n) g(n) :表示的是从开始节点到当前n节点的代价累加Dijkstra在扩展的时候,同时考虑从n节点扩展所有可扩展节点的代价g(),如果某个节点m的代价g(m)比g(n)要小,
0. 简介 在机器人领域,点云已经成为一种必不可少的地图表示方式。从定位和全局路径规划等下游任务的角度来看,动态对象对应的点会对其性能产生不利影响。现有的点云动态点去除方法在对比评价和综合分析方面往往缺乏明确性。因此,《A Dynamic Points Removal Benchmark in Point Cloud Maps》提出了一个易于扩展的统一基准测试框架,用于评估地图中动态点的移除技术
0. 简介 现有很多LiDAR里程计都依赖于某种形式的ICP估计帧间位姿,例如CT-ICP, LOAM等。现有的系统设计需要对机器人的运动(CT-ICP)和环境的结构(LeGO-LOAM)有一些特定的假设。而且几乎没有系统能够不需要调参(例如特征提取、面特征拟合、法向量估计、畸变矫正)就能用于不同的场景、不同的LiDAR、不同的运动模式、以及不同种类的机器人。为此《KISS-ICP: In De
0. 简介 最近激光SLAM的新工作真的是越来越多了,而大多数当前的激光SLAM系统都是在点云中构建地图,即使在人眼看来是稠密的,但当放大时,点云是稀疏的。稠密地图对于机器人应用至关重要,例如基于地图的导航。由于内存成本低,近年来,网格已成为一种有吸引力的稠密建图模型。《Real-time LiDAR Simultaneous Localization and Meshing》提出了第一个仅使用
BEVDepth: Acquisition of Reliable Depth for Multi-view 3D Object Detection论文精读摘要(Abstract·)本文工作:提出BEVDepth 在这项研究中,我们提出了一种新的三维物体检测器,它具有可靠的深度估计,称为BEVDepth,用于基于摄像机的鸟瞰(camera-based BEV)三维物体检测。 现有方法: 深
论文精读摘要(Abstract)背景介绍:二维的目标检测算法启发我们去寻找一个高效可用的三维目标检测算法自动驾驶通过感知周围环境来做出决定,这是视觉领域中最复杂的场景之一。范式创新在解决二维目标检测中的成功激励着我们去寻找一个简练的、可行的、可扩展的范例,从根本上推动该领域的性能边界。 主要工作:重用2D目标检测的框架,主要改进点在于 1. 构造一个专属的数据扩充策略 2. 升级NMS方法。为了
0. 简介 作为一个SLAMer来说,整个SLAM过程可以分为预处理(包含相机、激光的畸变去除,以及IMU的预积分都属于这部分操作),前端优化(这部分主要做的就是帧间匹配【scan-to-scan】,帧与地图匹配【scan-to-submap】,划窗优化,提取关键帧),后端优化(回环检测,后端地图优化)这些步骤。而上面这些我已经讲了很多了,比如划窗优化这块也是给出了对应的代码,我们这里将从cer
一、编译运行lidar_align这个标定文件得出的是:IMU到Lidar的外参 1.1 下载地址github链接:链接: https://github.com/ethz-asl/lidar_align 1.2 编译将源码放在src下,进行编译: catkin_make 1.2.1 nlopt问题解决出现如下问题: 解决办法:安装nlopt,但最新的(2.6.2) libnl
LSS: Lift, Splat, Shoot: Encoding Images from Arbitrary Camera Rigs by Implicitly Unprojecting to 3D 文章目录 LSS: Lift, Splat, Shoot: Encoding Images from Arbitrary Camera Rigs by Implicitly Unprojec
0. 简介 对于视觉而言,想要获得比较精细的地图信息,这离不开地图的三维重建。三维重建(3D Reconstruction)的定义就是,从一堆二维图像中恢复物体的三维结构,并进行渲染,最终在计算机中进行客观世界的虚拟现实的表达。一般的步骤如下 输入无序图像 Unstructured Images 图像对齐(Assoc.),筛选图像,构建场景图(也称为连接图)。 稀疏
一、相机标定原理 1.1 成像过程现实物体在相机中的成像过程离不开世界坐标系、相机坐标系、图像坐标系以及像素坐标系,只有理解了这些才能对获取的图像进行准确的分析。 成像过程: 四个坐标系如下图所示: 世界坐标系(world coordinate system):现实世界的三维坐标系,是现实世界的物理模型,单位为m。 相机坐标系(camera coordinate system):
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信