文章目录 1、现实差 2、 提高仿真度 前提 2.1、执行器模型 2.2、 延迟 3、 建立鲁棒控制器 3.1、随机动态参数 3.2、随机扰动 3.3、状态空间 1、现实差 因为并不存在能够完美捕捉现实的模拟器(环境),模拟与现实之间存在「现实差距」(Reality Gap),模型的输入分布在策略训练(模拟)和策略执行(现实)之间存在动态变化和差异性。如果继续在
文章目录 模型概要 1、状态、决策空间(略) 2、奖励函数 3、决策模型 模型概要 1、状态、决策空间(略) 状态空间:roll(X轴)、pitch(Y轴),以及沿这两个轴的角速度。 注意,状态空间中并没有使用所有可用的传感器测量值。例如,IMU还提供了基体的偏移(即x,y方向的偏移),有些imu还会提供加速度,这些我们都不考虑。我们排除这些值,是因为imu的数
一、minitaur 简介 这是来自宾夕法尼亚大学的一款机器人,叫 Minitaur,看图你就明白了。 四足机器人的运动控制通常需要大量的专业知识,以及突如其来的灵感(调参)。在之前的文章中,我们就用了很大的一个篇幅来讲控制信号的生成以及调节(详情请参考开头给出的两篇文章),然而这只是产生四足机器人能够完成周期性运动的控制信号而已,还有转向控制,各种信号反馈调
【四足机器人】强化学习实现minitaur运动控制
博客
泡泡
积分
勋章
【四足机器人】强化学习实现minitaur运动控制(仿真环境篇)
【四足机器人】强化学习实现minitaur运动控制(决策模型篇)
【四足机器人】强化学习实现minitaur运动控制(介绍篇)
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信