深度强化学习(Deep Reinforcement Learning, DRL)是目前最热门的方向之一,从视频游戏、围棋、蛋白质结构预测到机器人、计算机视觉、推荐系统等领域已经取得了很多令人瞩目的成就且仍在蓬勃发展中。DeepMind首席研究员、AlphaGo的第一作者Davild Silver就认为通用人工智能(Artificial General Intelligence, AGI) 需要强
增强学习是这几年发展最快的方向之一,尤其在AlphaGo Zero以100:0完胜AlphaGo后,增强学习开始被公众所熟知。本文主要介绍增强学习在导航中的应用。ppt可以下载。 与监督学习、非监督学习不同,强化学习任务没有大量的标注样本但有反馈信号reward。强化学习常用马尔科夫决策过程(Markov Decision Process, MDP)来表示,如下所示Agent在Environm
常用的仿真工具 仿真在机器人设计过程中十分重要,可以进行快速算法验证。同时,对于机器人学习者来说,仿真工具可以大大降低学习成本。 与机器人设计工具(如Solidworks, Blender)不同,机器人仿真平台集成了物理引擎,物理引擎可以根据物体的物理属性计算运动、旋转和碰撞,广泛应用于游戏、仿真中。如下图,Nao可以推动小箱子,却推不动更重的大箱子,这是由物理引擎中的牛顿定理计算得到的。常
Robotics工具包是由Peter Croke团队开发的一款基于Matlab平台的机器人运算、仿真的强大工具。2017年6月工具包的v10发布,新版的工具包功能更为强大,且支持更为简便的.mltbx格式安装。工具包更为详细的介绍以及下载、安装可以查看Peter Croke个人网站。本节的内容主要介绍利用工具包求解机器人的正、逆运动学。 工具包快速入门 双击robot-10.1.mltbx后
目录一览 系统 1.建模 2.分析 控制 3.PID 4.根轨迹 5.频率 6.状态空间 7.数字化 Simulink 8.建模 9.控制 控制器设计中的状态空间法(State-Space Me
目录一览 系统 1.建模 2.分析 控制 3.PID 4.根轨迹 5.频率 6.状态空间 7.数字化 Simulink 8.建模 9.控制 控制器设计中的频率分析法(Frequency Meth
在建立系统的数学模型后,可以初步分析系统的动态响应、稳定性等特征,当系统响应达不到要求时,就需要对原系统进行控制以实现目标响应。 PID是一种简单但应用极其广泛的基于误差补偿的控制器,PID控制器的输出为: 拉普拉斯变换后得到其传递函数: 其中kp为比例增益,ki为积分增益,kd为微分增益。在Matlab中可以通过前面构建普通传递函数的方法构建,也可以使用专门的函数 C = pid(kp,
https://v.qq.com/x/page/u051901b6o1.html ABB参赛作品:基于ROS的工厂作业机器人Plantbot ROS 官方提供了hector_mapping和gmapping两种方法来实现SLAM,其中gmapping采用的是比较古老的经典算法,而hector_gmapping采用较新的算法。两者在应用上的主要区别在于前者可以不借助里程计实现SL
目录一览 系统 1.建模 2.分析 控制 3.PID 4.根轨迹 5.频率 6.状态空间 7.数字化 Simulink 8.建模 9.控制 建模(System Modeling)分析、控制动态系统
Navigation是ROS中实现导航的集(stack),Navigation工作机制如下图所示。 可以看到Navigation的输入包括:里程计信息、激光雷达或者rgbd-camera信息、已知的先验地图(可选)和坐标系变换信息,输出为cmd_vel,即速度命令。move_base是navigation的核心部分,包括全局规划器(global_planner)、局部规划器(local_pl
小车平台 小车采用差分驱动(differential drive),底座包括两个由直流电机驱动的主动轮以及两个用于支撑的从动轮。三层支撑板由玻纤板设计定做,层间连接件为螺杆,配以螺母,方便调节高度。为了测量轮子转速,选用的直流电机带有正交编码器。考虑到成本,选用观测周围信息的传感器为国产廉价单线激光雷达,有效观测距离为6m,近距离里融合超声波传感器实现避障。 第二层板上放的是NUC(Ne
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信