0. 简介 最近几年随着深度学习的发展,现在通过深度学习去预估出景深的做法已经日渐成熟,所以随之而来的是本文的出现《Real-Time Dense Monocular SLAM with Neural Radiance Fields》。这篇文章是一个结合单目稠密SLAM和层次化体素神经辐射场的3D场景重建算法,能实时地用图像序列实现准确的辐射场构建,并且不需要位姿或深度输入。核心思想是,
0. 简介 这几个月,博主已经从SLAM算法的使用向着算法的数学推导进行了记录和分享,之前也分享了李群李代数关注核心一文,从现象中解释了李群和李代数表达的含义。但是这还不够,所以这次作者作为SLAM本质剖析的番外,来介绍李群李代数的微分和导数。 1. 旋转点求导 李群或者李代数上叠加微小量的情况呢?传统的求导过程中,我们常见的做法是对自变量添加一个微小值来进行: f'(x) =
0. 简介 最近作者希望系统性的去学习一下CUDA加速的相关知识,正好看到深蓝学院有这一门课程。所以这里作者以此课程来作为主线来进行记录分享,方便能给CUDA网络加速学习的萌新们去提供一定的帮助。 1. CUDA中的Stream和Event 1.1 CUDA stream CUDA stream是GPU上task 的执行队列,所有CUDA操作(kernel,内存拷贝等)都是在stream上
AutowareAuto建图 overview AutowareAuto 需要两种类型的自动驾驶地图 几何信息层面地图(点云地图) 语义信息地图(Lanelet2 Map) 本节主要介绍如何绘制两种地图,以及两种地图如何应用到整个系统中 最后呈现如下图地图所示效果 高精地图 在正式进行工程前,首先介绍什么是高精地图。 高精地图是一种比普通地图具有更多信
0. 简介 最近作者希望系统性的去学习一下CUDA加速的相关知识,正好看到深蓝学院有这一门课程。所以这里作者以此课程来作为主线来进行记录分享,方便能给CUDA网络加速学习的萌新们去提供一定的帮助。 1. Cublas概念 cuBLAS是一个BLAS的实现,允许用户使用NVIDIA的GPU的计算资源。使用cuBLAS的时候,应用程序应该分配矩阵或向量所需的GPU内存空间,并加载数据,调用所需的
说明: 将kitti数据集中 雷达点云图像投影到camera图像平面, 并生成 深度图的灰度图(灰度值=深度x256 保存成int16位图像(kitti中 depth benchmark的做法)) 输入: P_rect_02: camera02相机内参 R_rect_00: 3x3 纠正旋转矩阵(使图像平面共面)(kitti特有的) Tr_v
摘要:定位作为自动驾驶中最基本的环节之一,目的在于明确车辆相对于全局的绝对位置或相对于交通参与者的相对位置,其准确性直接影响了自动驾驶系统的安全性。当前,自动驾驶技术正在对我们的出行产生越来越深远的影响,但是在复杂的真实道路环境中,面向自动驾驶的定位方法还不够成熟。本文对已有的定位方法进行了全面而系统的梳理,首先针对单个定位方式逐类别地进行了归纳,包含基于通信的、基于航位推算的、和基于特征
0. 简介 最近作者希望系统性的去学习一下CUDA加速的相关知识,正好看到深蓝学院有这一门课程。所以这里作者以此课程来作为主线来进行记录分享,方便能给CUDA网络加速学习的萌新们去提供一定的帮助。 1. 基础矩阵乘法 下图是矩阵乘法的示意图,下面我们来看一下在CPU和GPU上是怎么表达的。CPU代码示意流程: // Matrix multiplication on the (CPU) ho
自动车建图与定位技术简介 自动车定位作用 车辆定位 室内环境:地图定位,UWB 定位,人工标志 室外环境:卫星定位 GNSS:GNSS 是将多个全球定位系统 (GPS、北斗、伽利略、格洛纳斯…) 融合起来得到最终的定位结果,并可以通过差分定位 (RTK) 进一步减小定位误差;组合导航定位:卫星定位 + RTK + 惯导 + 车辆信息,比单独卫星定位拥有更高的精度和可靠性
0. 简介 最近作者希望系统性的去学习一下CUDA加速的相关知识,正好看到深蓝学院有这一门课程。所以这里作者以此课程来作为主线来进行记录分享,方便能给CUDA网络加速学习的萌新们去提供一定的帮助。 1. GPU与CPU区别 处理器指标一般主要分为两大类,第一块主要是延迟,另一块是吞吐量。 1.1 CPU概念 对于CPU而言,首先是拥有较大的内存,其具有L1,L2,L3三级的存储。通过多级
描述 CSF布料滤波算法,用于遥感雷达数据提取地面,是张吴明教授等发表在remote sensing期刊上的文章论文全称:An Easy-to-Use Airborne LiDAR Data Filtering Method Based on Cloth Simulation源码链接:https://github.com/jianboqi/CSF.git 方法挺简单易懂的,网上有很多对此的论文
背景 相机标定核心公式复习公式 原理 我们可以将mei模型理解为,在 z 轴添加了一个偏移\xi ,使得球型水平入射的光线也可以投影到图像的像素区域内 1. 物理xyz 求 像素uv 通过以下过程,根据物理点的信息,和我们已经标定好的相机模型,可以得到该点在图像上的坐标 1.1 找到xyz与uv之间的关系 假设物理真实的点的坐标为 P = (x, y, z)^T 这个物理点,
PnP(Perspective-n-Point)是求解3D到2D点的对应方法。不论是相机和雷达的标定还是相机和相机的标定都可以使用PNP来解决,即通过不同坐标系下相同的点对求解变换矩阵。 这里相机多用棋盘格中的角点来实现点的提取。流行方法为张正友标定法,至于详细原理可点击我的博客https://www.cnblogs.com/tangjunjun/p/16240878.htm
0. 前言 作为激光雷达的回环而言,最经典的仍然是Scan Context,但是Scan Context仍然会存在有一些缺陷,一是它只利用了最大的高度,丢失了很多点云信息,二是Scan-Context不具有旋转不变性,需要进行暴力匹配,三是Scan-Context缺少特征提取步骤。所以文章《LiDAR Iris for Loop-Closure Detection》,同时作者也将代码开源
0. 简介 这篇文章我们介绍一下论文“High-Definition Map Generation Technologies For Autonomous Driving: A Review“,2022年6月11日,来自加拿大Ontario Tech University。相较于网上的其他文章,本文更在意向读者更轻松全面的了解文章中介绍的方法,让读者从总体上了解高精地图生成。 高清地图近年来备
1. Open3D-ML安装和使用 首先对于Open3d,我们要先对源码下载 # make sure you have the latest pip version pip install --upgrade pip # install open3d pip install open3d 然后选择要安装兼容版本的PyTorch或TensorFlow,Open3d中提供了两种安装方式
前言:对于无人驾驶路径规划系列的第二篇RRT算法的改进部分,由于有些内容属于个人想到的创新点,有想法投一篇小论文所以暂时没有公开,等后续完成后我会再公开介绍。今天第三篇内容开启一个新的算法介绍:Frenet坐标系下的动态规划。我花了将近半个月的时间来了解、研究算法原理,理解网上python开源的代码,最后根据个人理解在matlab上进行了复现。如果还没有看过我前面文章的读者,可以点击下方的传送
前言:由于后续可能要做一些无人驾驶相关的项目和实验,所以这段时间学习一些路径规划算法并自己编写了matlab程序进行仿真。开启这个系列是对自己学习内容的一个总结,也希望能够和优秀的前辈们多学习经验。 一、无人驾驶路径规划 众所周知,无人驾驶大致可以分为三个方面的工作:感知,决策及控制。 路径规划是感知和控制之间的决策阶段,主要目的是考虑到车辆动力学、机动能力以及相应规则和道路边界条件下,
0. 前言 前段时间去大概了解了如何去滤除动态障碍物的问题,也根据调研去做了一些工作,这一篇文章主要向大家展示如何将Lidar-MOS和ROS2结合起来去使用。 1. 环境安装 文中使用了Salsanext,Rangenet ++和Mine三个模块作为baseline来设计和测试动态障碍物滤除的工作,其中的语义分割工作都是目前已有的,可以去原项目中查看。代码下载: #下载程序 git c
Efficient Online Segmentation for Sparse 3D Laser Scans 描述 本文来分析另外一篇点云分割的算法原文:Efficient Online Segmentation for Sparse 3D Laser Scans 算法中分为两步,第一步是点云地面分割,第二步是对除去地面后的点进行分割。和之前一样,我们还是先只介绍地面分割的部分,之后有时间
自动驾驶相关博客
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信