本文对应的 Gitbook 为:https://daomingchen.gitbook.io/autonomous-mobile-robots/ 运动学是研究机构表现的基础,是设计机器人的硬件和软件的必要知识。对于移动机器人来说,其运动学要比机器手的运动学简单很多,主要原因是其机构较为简单,没有太多的运动关节。但是,移动机器人的运动学难点在于位置估计,即机器人在世界坐标系下的位置。之所以
本文对应的 Gitbook 为:https://daomingchen.gitbook.io/autonomous-mobile-robots/ 轮式机器人由于其简单和高效的机构,是所有移动机器人中最常见的种类。对于轮式机器人来说,平衡性往往非常容易达到。因此轮式机器人的研究往往更加注重轮子的种类,数量,排布及其所组成的机构的稳定性 (Stability),操控性 (Maneuverab
1. 为什么需要足式机器人 研究足式机器人的主要目的在于足可以在更多更复杂的地面种类上移动,这拓宽了移动机器人的应用领域,使其更加普适。但更多的自由度也是足式机器人的机构更加复杂和难以控制。 2. 结构与步态设计 我们常见的足式机器人大多来自于仿生学,他们的种类包括:双足人型,四足哺乳动物型,四足爬行动物型,六足昆虫型。 常见的足式机器人类型 对于一个足式来说
本文对应的 Gitbook 为:https://daomingchen.gitbook.io/autonomous-mobile-robots/ 1. 简介 Locomotion 的中文翻译是运动,但实际上特指由驱动器带动机器人的机构所产生的运动。除了 Locomotion 之外还有一种运动被称为 Movement,它是指机器人沿着一定的轨迹,速度,加速度的运动。 在自然届中,常见的 Loc
本文对应的 Gitbook 页为:https://daomingchen.gitbook.io/autonomous-mobile-robots/ 1. 历史上的移动机器人 1966年到1972年间,在斯坦福研究所诞生了世界上第一个自主的移动机器人,Shakey。它与现代的大多数机器人很像,具备感知,规划,和控制能力。它通过摄像头完成感知;步进电机负责控制轮子的运动;航向仪来确定机器人
0. 前言 1. 目标检测概述 2. 视觉领域的 Transformers 2.1 Backbones 2.2 Detector 2.3 3D Detection 0. 前言 前面几章主要介绍了端到端自动驾驶的方法,但在工业届,最主流的解决方案依然是 Pip
1. 直接感知 1.1 简介 直接感知的概念是普林斯顿大学在 2015 年的 paper: DeepDriving: Learning Affordance for Direct Perception in Autonomous Driving 中提出的。在该论文提出之前,已经存在的框架有强化学习和模仿学习使用的端到端的框架: 端到端的框架 以及虽然复杂,但却是自动驾驶
在阅读本文之前需提前掌握深度学习的基础知识。 reference: Self-Driving Lectures, University of TübingenYoutube | Imitation Learning: Approaches to Self-Driving UC Berkeley cs182 Youtube | Learning-Based Control &a
1. 简介 几乎从汽车诞生之日自动驾驶,在一个没有计算机和各种传感器的时代,人们已经开始幻想具有自动驾驶功能的汽车。因为驾驶本身不是一件很难的事情,因为汽车最基本的控制器就只有油门,刹车和方向盘。相对于操作一台复杂的工业机器或者预测股票的价格来说,开汽车是一件相对容易的事情,并且大多数人类经过短期的训练也能够掌握驾驶这项技能。 但很快人们就发现,自己低估了自动驾驶的难度,因为想让计算机完成
1. 课程资料 德国蒂宾根大学的自动驾驶课程 (Self-Driving Cars, lectureed by Prof. Andreas Geiger, University of Tübingen) 课程视频 | Youtube 课程主页 其他课程资料 | 百度网盘,提取码:xbej 本专栏的主要学习资料即来自于蒂宾根大学的自动驾驶课程,本专栏
不了解 Carla 排行榜的同学可以查看 @Here-Kin 的文章 【排行榜】Carla leaderboard 排行榜 运行与参与手把手教学,本文主要对排行榜的代码格式进行梳理。使用的代码示例来自 Transfuser,关于该参考的体验方法可以查看文章 ADP0. Carla 初体验. 开始之前,请先进入文件夹:Transfuser cd xxx/transfuser 1
ADP 是 Autonomous Driving Practise 自动驾驶实践的缩写。是配合着 AD 理论课程的应用层。这里我们选择 Carla 作为自动驾驶模拟器,因为目前来说 (22 年),Carla 是学界和工业届主流的自动驾驶模拟器。 1. 安装 Carla 1.1 安装包安装 安装 Carla 分为两种方式,一种是直接下载安装包,另外一种是在本地编译。如果你不需要修改
本文是上一篇论文 Playing Atari with Deep Reinforcement Learning 的拓展,得益于更大量的实验数据和精美的配图,本最终于 2015 在 Nature 上发表。这也是 DeepMind 在 Nature 上的第一篇文章,随后 DeepMind 就成了 Nature 的常客。 本篇文章的基本思路与其 13 年发表的论文类似。但多了很多精美的图和视
本篇文章对一些自动驾驶方向的社科文进行了总结,主要参考文章有: The Impact of Autonomous Vehicles on Cities: A Review Autonomous automobilities: The social impacts of driverless vehicles The social dilemma of autonomous vehic
这是 19 年的一篇来自 CMU 的文章。文章中使用了 TORCS 模拟器,和 DDPG 算法。作者没有开源代码,但有一个韩国人做了类似的项目,其 Github 仓库为:https://github.com/NOHYC/autonomous_driving_car_project 1. 简介 现在深度强化学习 (DRL) 在自动驾驶 (AD) 领域 依然有很多挑战。比如在控制方面的高纬
这是 2017 年的一篇文章,可以说是 DRL 自动驾驶方向的基础文章。文章的主要贡献是提出了一个端到端自动驾驶模型的框架,该模型接收原始传感器输入并输出驾驶动作。很可惜本文没有提供开源代码。 1. 简介 1.1 任务介绍 创建一个自动驾驶 AI 可以被分解为 3 个子任务: 认知 (Recognition) 感谢深度学习的发展,此部分的内容目前已经不是什么难题了。对于交
这是一篇19年的论文,对高速路场景下的自动驾驶使用 DDQN 算法,该方法没有额外的感知算法,直接通过摄像头的原始信息对汽车做出控制决策。说实话,这篇论文给人的感觉不太好,没有提供代码,也没有说自己使用的模拟器是什么,总体感觉比较潦草。但是,其给出的方法还算值得借鉴的。 1. 简介 因为在自动驾驶领域,很难建立一套没有死角的交通规则,因此作者决定使用一个 Model-free 的算法。
这是 21 年的一篇综述文章,可以算得上是最前沿的自动驾驶技术综述。这几年随着深度表征学习的发展,强化学习领域也得到了加强。本文会对目前最先进的自动驾驶 DRL 算法进行汇总和分类。 1. 简介 自动驾驶系统(AD system),由多个级别的感知和控制任务组成,目前在感知方面,已经可以通过深度学习架构来实现。但在控制层面,经典的监督学习已经不再使用,因为代理需要在每一个瞬间做出动作决
文章发表于 2015,部分内容随着时代的更迭已经不再先进,例如目前大多数模型使用的方法为深度强化学习,而不是深度学习。但作为自动驾驶的入门者,本文依然值得阅读。 1. 简介 本文的主要贡献是提出了一个深度学习自动驾驶的范式。在此之前,基于视觉的自动驾驶系统有两种主要的范式:解析整个场景以做出驾驶决策的中介感知方法 (Mediated Perception),以及直接将输入图像映射到回归
本篇博客为原文的简读版 1. 简介 高速公路驾驶由于其简单的驾驶环境和驾驶员的简单操作,使其成为交通环境中最为容易实现的一类情况。高速公路驾驶环境的车辆行为共有以下几种:车辆跟随,车道跟随,变道,并线,超车,避障。 2. 高速公路运动规划的注意事项 2.1 术语 在自动驾驶中,被研究的车辆被称为自主车辆 (Ego vehicle),其他的车辆都被视为障碍物。 用车辆的状态来
下面的代码演示了如何使用GPU训练模型。我的电脑没有GPU,所以以下代码都是在云端运行的。 在导入所有库后,输入torch.cuda.is_available() 查看GPU是否可用。 import os import numpy as np from tqdm import tqdm import torch import torch.nn as nn import torch.n
关于卷积神经网络这里就不多介绍,直接步入正题。使用CNN对猫狗进行分类。 1. 获取数据 这里外面使用的数据来自 Cat vs Dog Dataset 该数据集由一堆猫和狗的图像组成。不同的品种、年龄、大小(动物和图像)等。 下载数据集后,您需要提取它。我只是将它解压缩到您正在使用的目录中。 2. 准备数据集 这里我们要将刚才下载好的图片数据做成带有标签的数据集。 import
内容列表 1. 反向传播 1.1 优化器(optimizer) 1.2 损失函数(loss_function) 1.3 时期 (epoch) 1.4 总结 2. 验证模型 在上一个教程中,我们为我们的神经网络创建了代码。在这个使用 Python 和 Pytorch 进行深度学习的教程中,我们将通过学习如何迭代我们的数据、传递给模型、从结果中计算损失,然
内容列表 1. 导入数据 2. 创建神经网络 1. 导入数据 在这个教程中,我们将创建一个神经网络。首先由之前的教程,导入我们所需的数据。 import torch import torchvision from torchvision import transforms, datasets train = datasets.MNIST('', trai
内容列表 1. 创建数据集 2. 使用数据 3. 数据平衡 我们首先要考虑的是我们的数据。在大多数教程中,为了直接进行神经网络的训练,这一点经常被忽略。但作为一个程序员,最大的任务之一就是预处理数据并以最容易让神经网络使用的方式对其进行格式化。虽然这是一个比较没有难度的时候,进行学习的大多数时间要么在收集和
内容列表 1. 环境 2. 什么是 Pytorch 2.1 什么是张量 (Tensor) 此教程跟随 youtuber: Sentdex 的 Pytorch 教程 创作。其英文版的链接如下:https://pythonprogramming.net/introduction-deep-learning-neural-network-pytorch/ 1.
内容列表 1. 简介 2. SVM 原理详解 2.1 边界 (Margins) 2.2 函数边界(Functional margins) 2.3 几何边界 (geometric margins) 2.4 最优边界分类器(optimal margin classifier) 2.5 核 (Kernels) 3. 代码实现 此部分的内容参考了以下资
此部分内容包含了大量的概率论知识计算 目前为止,我们讲过的学习算法的模型都是,也就是给定 下 的条件分布,以 为参数。例如,逻辑回归中就是以 作为 的模型,这里的 是一个 型函数(sigmoid function)。接下来,咱们要讲一下一种不同类型的学习算法。 设想有这样一种分类问题,我们要学习基于一个动物的某个特征来辨别它是大象还是小狗。给定一个训练集,用逻辑回归或者
到目前为止,我们看过了回归的案例,也看了一个分类案例。在回归的案例中,我们得到的函数是 ;而分类的案例中,函数是 ,这里面的 和 分别是 和 的某种函数。在本节,我们会发现这两种方法都是一个更广泛使用的模型的特例,这种更广泛使用的模型就叫做广义线性模型。我们还会讲一下广义线性模型中的其他模型是如何推出的,以及如何应用到其他的分类和回归问题上。 1. 指数族 (The exponenti
逻辑回归可以用来解决分类问题,一个比较经典的例子是猫狗分类 (此例子属于深度学习的范围,因为处理图片需要用到卷积神经网络)。这里将问题简化为二值问题,具体如下图所示。我们需要做的就是找到一条线将这两个标签分开(后面将两个标签用数字 和 表示,即 )。 1. 逻辑回归 大多数情况下,按照逻辑回归得出的直线很难将两个标签分清楚: 因此这里引入逻辑函
1. 法方程 (The normal equations) 1.1 矩阵求导 (Matrix derivatives) 1.2 最小二乘法回顾(Least squares recap) 2. 概率解释(Probabilistic interpretation) 3. 局部加权线性回归(Locally w
1. 监督学习(Supervised learning) 1.1 例子 2. 线性回归(Linear Regression) 2.1 引例 2.2 LMS 算法 线性回归是机器学习的数学基础,本节的内容给我的感觉是通过不断的梯度下降(迭代)而寻找最优解的过程,而这个所谓的最
遭遇瓶颈 学习资料: 如何想用APP Designer做出来的GUI控制机器人,可以查看下面的两个方法:(但是效果不好,下方有解释) Matlab S-Function详解blog.csdn.net/jirryzhang/article/details/78335358 MatlabGUI与Simulink实时通信www.jianshu.com/p/389daf78b3ee 在命令行中输入:
本节主题:在MATLAB中设计设计GUI页面(建议大家直接在Simulink中做GUI,博主写第五节文章的时候发现自己掉坑里了) 本节日志的学习视频链接如下(有两个系列),UP主是PHD在读,MATLAB和图像处理方面的宝藏Up,感兴趣的同学建议去关注一下。 https://www.bilibili.com/video/BV16f4y147x9?p=17www.bilibili.com/vide
前言: 之前我们已经学会了很多关于Matlab和机器人的基础知识了,现在我们来做个6轴机器人的project,往后的学习日志也会基于这个项目,但是往后可能会用到除了Matlab之外的其他技能,比如C++和ROS。项目难度会越来越大,希望大家和我能坚持走下去,一起变强! 本文主要参考了下方的视频(从youtube搬运到B站的): Simulate and Control Robot Arm with
前言: 本文是基于下方B站视频P1 - P3 的学习笔记,此外还有基于视频教程的实例训练。 MATLAB and Simulink Robotics Arena 1. 用Matlab学习机器人学都要做那些东西? Perception -》 Control -》 Prototyping -》Implementation 翻译过来就是(非直译): 传感器 -》 控制系统 -》原型机仿真 -》实体机器
本文使用 Zhihu On VSCode 创作并发布 1. Face detection with haar cascades 本章的主要内容是使用 Opencv 做人脸识别。 要做到人脸识别其实挺难的,一般来说需要用到机器学习,将大量的标记好的图片数据喂给机器学习框架,让其调整内部参数,以达到目标胜率(成功率)。但好在 Opencv 作为一个开源了很多年的计算机视觉库,这样的工作他们当然也做过了
本文使用 Zhihu On VSCode 创作并发布 本章笔记基于 Youtube 博主 http://FreeCodeCamp.org 上传的视频 OpenCV Course - Full Tutorial with Python【B站转载】 1. Install 在安装好最新版本的 python 后在 cmd 中进行python库的安装 pip install pip install
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信