PnP(Perspective-n-Point)是求解3D到2D点的对应方法。不论是相机和雷达的标定还是相机和相机的标定都可以使用PNP来解决,即通过不同坐标系下相同的点对求解变换矩阵。 这里相机多用棋盘格中的角点来实现点的提取。流行方法为张正友标定法,至于详细原理可点击我的博客https://www.cnblogs.com/tangjunjun/p/16240878.htm
0. 前言 作为激光雷达的回环而言,最经典的仍然是Scan Context,但是Scan Context仍然会存在有一些缺陷,一是它只利用了最大的高度,丢失了很多点云信息,二是Scan-Context不具有旋转不变性,需要进行暴力匹配,三是Scan-Context缺少特征提取步骤。所以文章《LiDAR Iris for Loop-Closure Detection》,同时作者也将代码开源
0. 简介 这篇文章我们介绍一下论文“High-Definition Map Generation Technologies For Autonomous Driving: A Review“,2022年6月11日,来自加拿大Ontario Tech University。相较于网上的其他文章,本文更在意向读者更轻松全面的了解文章中介绍的方法,让读者从总体上了解高精地图生成。 高清地图近年来备
1. Open3D-ML安装和使用 首先对于Open3d,我们要先对源码下载 # make sure you have the latest pip version pip install --upgrade pip # install open3d pip install open3d 然后选择要安装兼容版本的PyTorch或TensorFlow,Open3d中提供了两种安装方式
前言:对于无人驾驶路径规划系列的第二篇RRT算法的改进部分,由于有些内容属于个人想到的创新点,有想法投一篇小论文所以暂时没有公开,等后续完成后我会再公开介绍。今天第三篇内容开启一个新的算法介绍:Frenet坐标系下的动态规划。我花了将近半个月的时间来了解、研究算法原理,理解网上python开源的代码,最后根据个人理解在matlab上进行了复现。如果还没有看过我前面文章的读者,可以点击下方的传送
前言:由于后续可能要做一些无人驾驶相关的项目和实验,所以这段时间学习一些路径规划算法并自己编写了matlab程序进行仿真。开启这个系列是对自己学习内容的一个总结,也希望能够和优秀的前辈们多学习经验。 一、无人驾驶路径规划 众所周知,无人驾驶大致可以分为三个方面的工作:感知,决策及控制。 路径规划是感知和控制之间的决策阶段,主要目的是考虑到车辆动力学、机动能力以及相应规则和道路边界条件下,
0. 前言 前段时间去大概了解了如何去滤除动态障碍物的问题,也根据调研去做了一些工作,这一篇文章主要向大家展示如何将Lidar-MOS和ROS2结合起来去使用。 1. 环境安装 文中使用了Salsanext,Rangenet ++和Mine三个模块作为baseline来设计和测试动态障碍物滤除的工作,其中的语义分割工作都是目前已有的,可以去原项目中查看。代码下载: #下载程序 git c
Efficient Online Segmentation for Sparse 3D Laser Scans 描述 本文来分析另外一篇点云分割的算法原文:Efficient Online Segmentation for Sparse 3D Laser Scans 算法中分为两步,第一步是点云地面分割,第二步是对除去地面后的点进行分割。和之前一样,我们还是先只介绍地面分割的部分,之后有时间
描述 这个韩国团队真的挺厉害的,在2017年别人提出的GPF算法(已分析)基础上,持续输出。2021年在RAL发表了两篇文章:一篇R-GPF算法(我还没分析),另外一篇是Patchwork(已分析)。今年刚刚刚,也就是2022年7月份又中了一篇IROS,也就是这篇文章:Patchwork++,主要改进了之前提出的Patchwork。 论文思想挺不错的,我来解析一下(同时,定个小目标,年底争取超
AutowareAuto 泊车案例复现及原理简介 泊车案例是 AutowareAuto 于2020年开发的一个实例,如今可以Autonomous Valet Parking Demonstration 中看到。 一、前提准备 AutowareAuto ade环境搭建完成 Lgsvl环境和仿真器配置完成 二、运行环境建议 如果运行 LGSVL 仿真器,需要搭载
描述 这一篇文章介绍2017年的一篇基于点云数据的地面分割算法——GPF(Ground Plane Fitting)论文全称:Fast Segmentation of 3D Point Clouds: A Paradigm on LiDAR Data for Autonomous Vehicle Applications 这篇文章实际上有两个贡献:其中一个是GPF。而另外一个是SLR(Scan
论文题目:VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection 开源代码:https://github.com/qianguih/voxelnet VoxelNet是一个端到端利用点云进行3D目标检测的网络,它的最大特征是把点云转成体素(voxel,所谓体素,其实就是网格,三维空间中的网格)形式再进行
论文题目:PointFusion: Deep Sensor Fusion for 3D Bounding Box Estimation 一、整体介绍 这篇论文所提出的网络模型都很简洁,作者的文笔也很清晰,所以我们就不废话了,都在图里了 图中A、B、C、D、E都标好了,我们逐个讲解就是了 A)使用PointNet提取点云的特征,包括全局特征和单个点的特征 B)使用ResNet提取图
论文题目:Frustum PointNets for 3D Object Detection from RGB-D Data 开源代码:https://github.com/charlesq34/frustum-pointnets 一、基本思路 这篇文章是PointNet和PointNet++的作者写的,其目的是在使用PointNet进行点云处理之前,先使用图像信息得到一些先验搜索范围,
在上一篇文章,我们通过AVOD的论文介绍了它的原理,这一次我们介绍它的代码 代码介绍会分多篇文章进行,本篇文章先介绍怎样搭建环境,把程序run起来,后续的文章会介绍程序的结构和代码的详细内容。 话不多说,进主题 一、环境搭建 我使用的系统是ubuntu 16.04,用anaconda搭建的虚拟环境,至于anaconda在ubuntu上怎样安装,大家可以自己在网上查,教程很多。 安装完an
论文题目:Joint 3D Proposal Generation and Object Detection from View Aggregation 开源代码:https://github.com/kujason/avod AVOD和MV3D-Net比较像,前者算是后者的加强版,由于之前我们已经详细介绍了MV3D-Net,所以我们就不对AVOD做完整介绍了,只介绍它做的改进部分,之前MV3
论文题目:Multi-View 3D Object Detection Network for Autonomous Driving 开源代码:https://github.com/leeyevi/MV3D_TF MV3D-Net是2017年发表的一篇论文,它融合了视觉和雷达点云信息,同时,和以往基于voxel的方法不同,它只用了点云的俯视图和前视图,这样既能减少计算量,又不至于丧失过多的
描述 接上一篇,对论文中的实验结果进行分析 PLARD使用的网络:视觉PSPNet,雷达ResNet-101 IV. EXPERIMENT 在本节中,我们评估了基于KITTI道路检测的PLARD的有效性。我们首先采用5倍交叉验证来说明PLARD中各个部分的有效性。然后,我们在测试集上评估PLARD,并将其与其他最先进的道路检测算法进行比较。 A. Dataset数据集 KITTI道路基
描述 详解一篇基于激光视觉融合的道路检测文章,发表在2019年自动化学报英文版(我所主编的业界顶刊)中,第三作者是陶大程,业界大佬,可自行进行百度。 为什么选择这篇文章进行分析呢。查看KITTI数据集的分数榜单leader-board你会发现,这篇文章的结果非常领先。 Abstract 尽管基于视觉图像的道路检测技术发展迅速,但由于光照变化和图像模糊等问题,在视觉图像中鲁棒的识别出道路区域
0. openpilot是什么 首先我们需要对openpilot要有个清楚的认知,openpilot主要基于python语言编写。openpilot进程之间通过ZMQ进行通信,使用订阅者和发布者模式,进程订阅其他进程的信息,进程一系列处理,将得到的结果发布出去,让其他进程获取其处理结果。整个openpilot项目可以分为以下几个模块:定位、决策、控制这几个部分。openpilot的实现原理类似于
自动驾驶相关博客
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信