前言 在《无人驾驶技术入门(十八)| 手把手教你写扩展卡尔曼滤波器》和《无人驾驶技术入门(十九)| 手把手教你实现多传感器融合技术》中,我以激光雷达和毫米波雷达数据,对障碍物进行目标跟踪为例,介绍了卡尔曼滤波器(KF)、扩展卡尔曼滤波器(EKF)在无人驾驶中的应用。卡尔曼滤波器能够很好地解决线性的状态估计问题;在遇到非线性的状态估计问题时,可以利用扩展卡尔曼滤波器将非线性问题线性化,只是
前言 在《无人驾驶技术入门(十三)| 手把手教你写卡尔曼滤波器》的分享中,我以激光雷达的数据为例介绍了卡尔曼滤波器(KF)的七个公式,并用C++代码实现了激光雷达障碍物的跟踪问题;在《无人驾驶技术入门(十八)| 手把手教你写扩展卡尔曼滤波器》的分享中,我以毫米波雷达的数据为例,介绍了扩展卡尔曼滤波器(EKF)是如何处理非线性问题的。 无论是卡尔曼滤波器处理线性问题还是扩展卡尔曼滤波
前言 《无人驾驶技术入门(十三)| 手把手教你写卡尔曼滤波器》以一个匀速运动小车的模型为例,让读者从感性上认识了卡尔曼滤波器的基本原理,它包含预测(Prediction)和测量值更新(Measurement update)两大过程。预测和测量值更新的交替执行,实现了卡尔曼滤波在状态估计中的闭环。 随后,我从理性分析的角度,以无人驾驶中激光雷达测量障碍物位置的数据为例,结合卡尔曼滤波所用到的公
前言 上一期的《无人驾驶技术入门(十六)| 初识深度学习之交通标志分类》我以交通标志牌的分类为例,介绍了深度学习中所涉及的有关神经网络的理论知识。包括神经网络中的参数,反向传播原理,训练集、验证集和测试集的区别,通过优化经典的图像分类网络LeNet-5,完成了交通标志牌的分类工作。 在本次分享中,我将以优达学城(Udacity)无人驾驶工程师学位中提供的无人车行为克隆项目为例,介绍深度学习在
前言 在上两期的《无人驾驶技术入门》中,我以车道线检测为例,介绍了计算机视觉领域一些基本的算法。应用图像处理算法和调试算法阈值,就能实现车道线的检测和跟踪。 车道线检测、跟踪的项目,主要是通过设置ROI(感兴趣区域)、调试算法阈值,通过人为设定规则的方式实现车道线检测。随着人工智能技术的发展,近几年在图像处理领域越来越多地采用深度学习的方式进行图像中物体的识别。使用深度学习的方法识别图像,不仅
前言 上一期的《无人驾驶技术入门(十四)| 初识图像之初级车道线检测》,我对计算机视觉技术的一些基本理论和OpenCV库的使用进行了分享。这些技术包括图像的灰度处理、边缘提取算法、霍夫变换直线检测算法以及数据的后处理方法。应用这些技术后,可以将图像中近似直线的车道线检测出来。检测的效果如下图红线所示。 在上一期的末尾,我们从边缘提取算法和霍夫变换直线检测的原理上,讨论了为什么以上算法无法处理光照
前言 无人驾驶技术入门软件篇已经介绍了传感器数据的解析和传感器信息的坐标转换,这两步完成后,我们就会获得某一时刻,自车坐标系下的各种传感器数据,这些数据包括障碍物的位置、速度;车道线的曲线方程、车道线的类型和有效长度;自车的GPS坐标等等。这些信号的组合,表示了无人车当前时刻的环境信息。 由于传感器本身的特性,任何测量结果都是有误差的。以障碍物检测为例,如果直接使用传感器的测量结果,在车辆
前言 在第十一期的分享中,我以CAN总线的解析为例,介绍了如何通过解析CAN总线的消息,获取传感器的数据。这一期的分享将会集中在如何将传感器坐标系下的数据转换到自车坐标系下。 无人车上拥有各种各样的传感器,每个传感器的安装位置和角度又不尽相同。对于传感器的提供商,开始并不知道传感器会以什么角度,安装在什么位置,因此只能根据传感器自身建立坐标系。无人驾驶系统是一个多传感器整合的系统,需要将
前言 到目前为止,无人驾驶技术入门硬件篇的分享已经介绍完了。接下来我将会分享更多和软件相关的内容。这一期的主要内容是——无人驾驶中的CAN(Controller Area Network )总线。 CAN总线在整个无人驾驶系统中有着十分重要的作用。除了在《无人驾驶技术入门(九)——与生俱来的VCU信号》中提到的VCU信号需要通过CAN总线进行传输外,无人车上的某些传感器(如雷达、Mobi
前言 上一期的无人驾驶技术入门,我们以障碍物的跟踪为例,介绍了卡尔曼滤波器的原理、公式和代码的编写。接下来的几期无人驾驶技术入门,我会带大家接触无人驾驶技术的另一个重要的领域——计算机视觉。 在无人驾驶技术入门(五)| 没有视觉传感器,还谈什么无人驾驶?中,我介绍了车载视觉传感器能够实现车道线、障碍物、交通标志牌、可通行空间、交通信号灯的检测等。这些检测结果都离不开计算机视觉技术。 本次分享
前言 前九次的分享,我将无人车上所用到的主流传感器都做了介绍。这些传感器都是看得到,摸不着的实物。在无人车自动驾驶的过程中,还有一种看不见、摸不到的“传感器”也在发挥着巨大作用,它就是高精度电子地图。 高精度电子地图也称为高分辨率地图(HD Map,High Definition Map),是一种专门为无人驾驶服务的地图。与传统导航地图不同的是,高精度地图除了能提供的道路(Road)级别的导
前言 在之前的技术分享中,传感器都是安装在汽车外或车内的。而这次要介绍的是汽车生来就具备的传感器信号,即从汽车控制单元(Vehicle Control Unit,简称VCU)中获取的信号。 VCU的另外一个名字是“行车电脑”,它通过CAN总线与汽车的发动机、变速器、油门踏板、制动踏板、车身控制器等各种电子设备通信,读取各个控制单元的工作状态,并在需要时对它们进行控制。如下图所示。 图片出处:
前言 在上一次分享中,我介绍了毫米波雷达的原理、数据特性及优缺点。毫米波雷达的低环境敏感和低成本的特性使得其在ADAS和自动驾驶领域得到了广泛的应用。 今天要介绍的是一款极其常见的传感器——超声波雷达。如果你觉得超声波雷达有些陌生,那么它还有一个更通俗的名字——倒车雷达。 在倒车入库,慢慢挪动车子的过程中,在驾驶室内能听到”滴滴滴“的声音,这些声音就是根据超声波雷达的检测距离给司机的反馈信息
前言 上一次的分享里,我介绍了一个重要的感知传感器——摄像机。摄像机作为视觉传感器,能为无人车提供丰富的感知信息。但是由于本身感知原理的缺陷,导致摄像机的测距并不是那么准确。 工程师们为了解决测距的问题,引入了激光传感器。这就是我们常在Level 3级别以上的无人车上看到的设备。比如通用用于研究Level 4级别自动驾驶技术的Bolts,就在车顶上顶了好多激光雷达。 图片出处:http:/
前言 上一次的分享里,我介绍了GPS+IMU这组黄金搭档,这两个传感器的组合能够实现城区道路自动驾驶的稳定定位功能,解决了第一个大问题“我”在哪的问题。 为了能让无人车能像人一样,遇到障碍物或红灯就减速,直到停止;遇到绿灯或前方无障碍物的情况,进行加速等操作。这就需要车载传感器去周围的环境进行感知。 应用于无人车上的传感器目前有四大类,分别是摄像机,激光雷达、毫米波雷达和超声波雷达。不同的
前言 上一次的分享里,我介绍了GPS的原理(三角定位)及特性(精度、频率),同时也从无人车控制的角度,讨论了为什么仅有GPS无法满足无人车的定位要求。 为了能让无人驾驶系统更高频率地获取定位信息,就必须引入频率更高的传感器。这就是这一次内容的主角——IMU(Inertial Measurement Unit)惯性测量单元。 下图就是百度Apollo计划推荐使用的IMU——NovAtel S
前言 上一次的分享里,我对百度 Apollo 计划的技术框架做了介绍,如图。 Apollo1.0 封闭场地循迹自动驾驶 如果要完成 Apollo 1.0 的“封闭场地寻迹自动驾驶”功能,需要解决一个重要的问题:我(无人车)在哪? “我在哪”这个问题,在 Apollo 1.0 的架构中完全依赖 GPS(全球定位系统) 和 IMU(惯性测量单元)。 今天的分享,我会用尽可能简单的语言,介绍
前言 上一次的分享里,我对百度Apollo 1.0和Apollo 1.5所用到的传感器及控制器进行了介绍。 可以得到一个结论:实现越复杂的功能,所需要的传感器越多,对控制器的性能要求也越高。 今天的分享,我会结合Apollo 1.0和Apollo 1.5所开放的模块,谈谈我对百度Apollo技术框架的理解。并告诉大家不写代码,如何成为自动驾驶工程师。 正文 先上一张百度Apollo的技术
前言 在上一次分享中,我对无人驾驶汽车上的激光雷达的原理、数据及功能做了介绍。 激光雷达的普及所遇到的最大挑战是:成本过高。单独一个雷达的价格可能就超过了普通小汽车的价格,因此现阶段还没有大规模量产的可能性。 为了推进自动驾驶技术的发展,同时要解决摄像机测距、测速不够精确的问题。工程师们选择了性价比更高的毫米波雷达作为测距和测速的传感器。毫米波雷达不仅拥有成本适中的有点,而且能够完美处理激
前言 各位老铁好!无人驾驶技术入门(硬件篇)的第一讲开课啦! 今天的课程我会介绍一个来自旧金山的创业公司,它曾是百度无人驾驶的引路人。 正文 百度在今年7月和9月分别发布了Apollo 1.0和Apollo 1.5,可以实现循迹行驶和固定车道的自动驾驶功能。1.0和1.5的配置如下: 汽车 Lincoln MKZ Apollo 1.0 无人驾驶汽车 这辆车是Baidu向Aut
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信