前言 上文介绍使用自己的多线激光雷达来可视化、采数据,接下来就是介绍怎么使用港科大改进的A-Loam进行建图。注意注意!第六和第七章使用的都是Ubuntu18.04系统!!!!!! 1 A-LOAM 参考论文如下:LOAM: Lidar odometry and mapping in real-time A-LOAM 是 LOAM的先进实现(Advanced Implementatio
1 SLAM简介 1.1 概述 SLAM本质就是确定自己在哪里的哪里,如在苏州中心的正东边66米处。 SLAM (Simultaneous Localization and Mapping),也称为CML (Concurrent Mapping and Localization), 即时定位与地图构建,或并发建图与定位。机器人自主定位导航技术中包括:定位和地图创建(SLAM)与路径规划和运动
前言 好久没更新这部分了,最近在搞中期答辩的东西,简单补充一部分多线激光雷达建图的内容。上文介绍使用自己的激光雷达如何通过GMapping算法建图,接下来两节介绍怎么运行Velodyne的16线激光雷达,并使用港科大改进的A-Loam进行建图。 前文链接如下 1 Velodyne激光雷达 Velodyne 的 Puck 激光雷达传感器( VLP-16)是目前机器人与自动驾驶使用的主流传感
为什么选择OriginBot 最近因为工作原因接触到机器人相关的内容,对机器人很感兴趣,就在网上找了一圈适合新手入门的产品,最终选择了OriginBot,下面是当时待选产品的一些对比和思考。最开始找到的感觉还不错的产品其实亚博智能和幻尔机器人两款机器人,都是基于树莓派做的,淘宝上有的卖,感兴趣的可以去搜一下看看。但是很快就发现这类产品不适合新手学习,有以下几个原因: 不是基于ROS开发的这
描述 python实现简单的车道线检测,本文章将介绍两种简单的方法 颜色阈值+区域掩模 canny边缘检测+霍夫变换 这两种方法都能实现简单的车道线检测demo,注意仅仅是demo 下面的图片是用到的测试图片 方法1:颜色阈值(Color Selection)+ 区域掩模(Region Masking) 我们可以仅仅通过设置一些RGB通道阈值,来提取车道线。 以
前言 前文我们已经安装了turtlebot3并运行了自带的SLAM仿真例程,完成了地图的建立与路径规划前往目标位置的任务,并首次完成了对激光雷达的启动与可视化,本文开始介绍使用自己的激光雷达如何通过GMapping算法建图。 前文链接如下 1 Gmapping算法 Gmapping算法又名Grid Mapping算法,是一种基于RBpf粒子滤波算法,即将定位和建图过程分离,先进行定位再进
前言 前文我们已经安装了turtlebot3并运行了自带的SLAM仿真例程,完成了地图的建立与路径规划前往目标位置的任务,本文开始介绍使用自己的激光雷达如何与ROS通信并可视化。 前文链接如下 1 激光雷达简介 本文使用的激光雷达为衫川的Delta-2A,某宝售价在400左右 下载官方提供的资料包,找到所使用的雷达型号,内容如下 在使用任何硬件前建议大家先将官方提供的手册进行阅读
前言 Turtlebot3(简称TB3)是继Turtlebot2之后,又一款ROS官方打造的软硬件学习平台,更小,更便宜,更好玩,该文章通过该项目提供的软件平台与例程进行SLAM简单介绍与实现。 在Turtlebot3进行SLAM仿真 1 安装Turtlebot3依赖包 打开终端,输入以下命令安装Turtlebot3依赖的包文件 sudo apt-get install
0 简单的CUDA简介 1.简单教程 CUDA C ++只是使用CUDA创建大规模并行应用程序的方法之一。它允许您使用功能强大的C ++编程语言来开发由GPU上运行的数千个并行线程加速的高性能算法。许多开发人员以这种方式加速了他们的计算和带宽需求的应用程序,包括支持正在进行的人工智能革命(称为深度学习)的库和框架。 1.1.案例 C ++程序开始,该程序添加两个数组的元素,每个数组包含一百
本博客为《OpenCV算法精解:基于Python与C++》一书(参阅源代码链接)的阅读笔记,根据理解对书中绝大多数算法做了总结和描述,对Numpy较为熟悉,Python方面仅对与C++不同的注意事项做了标注。书作者整体按照冈萨雷斯的经典教材《数字图像处理(第三版)》和OpenCV知识脉络组织内容,每个算法均用Python和C++两种语言实现。除官方函数外本书给出了多数算法函数的自定义版本便于读者理
实物照片 模块简介 MAX30102是一个集成的脉搏血氧仪和心率监测仪生物传感器的模块。 它集成了一个红光LED和一个红外光LED、光电检测器、光器件,以及带环境光抑制的低噪声电子电路。 MAX30102采用一个1.8V电源和一个独立的5.0V用于内部LED的电源,应用于可穿戴设备进行心率和血氧采集检测,佩戴于手指点耳垂和手腕处。 标准的I2C兼容的通信接口可以将采集到的数值传输给A
前言 大家好,我是Alliance战队的成员。鉴于今年(2021年)我们学校是举办方之一,为了战队能正常调试各个兵种机器人模拟真实赛场,因此在队长的安排下负责搭建官方提供的裁判新系统抢鲜版(2020)。但是官方给的说明很有限,且网上找不到几篇相关文献,唯一找到一篇是robomaster机甲大师:裁判系统服务器搭建入门但是按照这篇文章的方式搭建会出现MySQL连接失败的情况,在我多次找Bug后终于
0. 简介 我们知道,在SLAM中,最主要也最关键的就是如何对我们设计出来的非线性问题进行求解,并计算出最优解。而在这个过程中我们用的最多的就是Ceres,之前作者在《SLAM本质剖析-Ceres》。而我们这一篇文章就来讨论一下如何使用Ceres来完成常见的优化。 1. Ceres中点到点的距离残差 下面的部分就是我们最常用的两个点到点的计算公式,其中Eigen_MAKE_ALIGNED_O
0. 简介 相信最近大家已经被Transformer给洗脑了,作者也在《多传感器融合综述—-FOV与BEV》中提到了深度学习相关的技术。这就随之带动的就是如何使用基于纯相机的鸟瞰图(BEV)感知技术来替代昂贵的激光雷达传感器,并使其能够应用在自动驾驶上,这目前是急需解决的问题,由于现在Transformer的计算仍然需要大量资源来执行车载推理,无法满足实时性。为此我们来看一下这一篇《Fast-B
0. 简介 对于视觉SLAM而言,除了使用特征点法来完成VIO以外,还可以使用光流法来完成VIO的估计。而传统的光流法受环境,光照变化严重,所以有时候会出现光流偏差等问题。所以现在有越来越多的工作朝着深度学习的方向扩展,比如说这一篇文章《FlowFormer: A Transformer Architecture for Optical Flow》,目前已经被ECCV 2022收录。这里作者也在
0. 简介 对于Gazebo而言,我们知道其是可以通过与ROS的连接完成机器人建图导航的,那我们是否可以通过Unity来完成相同的工作呢,答案是肯定的。这一讲我们就来讲述使用Unity的“Turtlebot3”模拟环境,来运行ROS2中的“Navigation 2”以及“slam_toolbox”。 1. 代码编译 安装步骤如下所示,首先先下载“Navigation 2 SLAM Examp
0. 简介 最近几年随着自动驾驶行业的火热,对高精地图的需求也日渐庞大。由于高精(HD)地图的相关可扩展性成本,需要不断的维护,并涉及繁琐的人工标签。这就导致需要大量的人力来做这样的事情,而是否存在一些比较简单的办法来完成道路、人行道、人行横道和车道等静态地标进行自动和准确的标注,这就是科研界几年中所需要关心的内容,本文主要围绕着这篇IROS 2020的文章《Probabilistic Sema
内容列表 机器视觉原理 开源软件或框架 OpenCV TensorFlow PyTorch YOLO 对于人类来讲,90%以上的信息都是通过视觉获取的,眼睛就是获取大量视觉信息的传感器,然后再交给大脑这个“处理器”进行处理,之后我们才能理解外部环境,建立世界观。 如何让机器人也能理解外部环境呢,我们首先想到的就是给机器人也安装一对眼睛,是不是就可以和人类
代码目录如下: 运行案例 启动底盘和雷达 SSH连接OriginBot成功后,在终端中输入如下指令,启动机器人底盘和激光雷达: $ ros2 launch originbot_bringup originbot.launch.py 启动轨迹跟踪 选择Pure Pursuit: $ ros2 run originbot_autonomous purepursuit_node
用STM32玩L298N(正反转、调速) 开发板:STM32F103ZET6(正点原子F103核心板)/STM32F103C8T6小板硬件:L298N,网上一搜就有软件:Keil MDK5.29 买L298N回来的时候,给的例程是51的,我手上又没有这种板子,解决方法就是自己在网上找别人怎么做,找不到就去找原理图,慢慢来,肯定会有收获的! 开发板图片(正点原子F103核心板)
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信