1、欧拉插值 把旋转矩阵R表示成欧拉角,那么每个时刻的位姿就可以表示成三个角度,我们每两个节点之间对三个角度值分别进行插值,我们看起来就是每两个节点剑斗士绕三个轴依次旋转,每次旋转是按照其中一个角度值的插值,这也是他的缺点就是看起来比较繁琐,冗余的运动成分大,经济性很差 2、RPY插值 rpy插值和欧拉插值的原理在我心里是一样的 %% %欧拉插值和RPY插值 rpy0 = [0,0,0
0摘要 因为我个人是做六轴机械臂轨迹规划,所以大部分学习和博客重点与此有关。本篇文章主要讲述四元数的定义数学基础(没有推导只有公式结果)、四元数是如何表示旋转位姿,四元数表示位姿在轨迹规划过程中的插值方法、四元数的优缺点(主要是优点)。 1.四元数基础 1.1四元数作用从复数的定义是w = a+bj,我们发现其实给一个复数w1乘上另外一个复数w2,实际上可以实现对w1的旋转和缩放,如果我
文章参考书籍:《机器人学 建模、规划与控制》 0.摘要 本篇文章讲解微分运动学的主要内容,关键是两种雅克比矩阵的定义/计算,以及其对于正/逆运动学的作用,使用其求解机械臂奇异点的方法,文中还给出了六个转动关节的机械臂基于DH参数已知情况下的雅克比矩阵和奇异点。 1.几何雅克比矩阵 1.1定义:描述用户关节速度与相应末端执行器线速度和角速度之间关系的微分运动学 1.2具体计算公式:
1.摘要 文章的主要内容是,编写C++代码,实现六轴机械臂的正运动学运算(输入为关节角度,输出为T6 )和逆运动学求解(输入为T6,输出为关节角度),这个代码是很基础的,可能十几年前网上就有成熟的了,当然你也可以用我下边粘贴的代码。本文数学公式截图来自论文 [1]张付祥,赵阳.UR5机器人运动学及奇异性分析[J].河北科技大学学报,2019,40(01):51-59.
0.前言 我今早陷入了沉思,我想不起自己为啥要写一个逆运算包括今天这个笛卡尔空间位置和姿态插值的代码了,我在VS2019里进行仿真也不现实,我想用matlab仿真那为啥不用 matlab语言写,更何况我的毕设是在ros平台下仿真的!但是我后来顿悟了,我是为了了解笛卡尔空间轨迹规划过程中的插值原理,尤其是四元数用于姿态的插值!我最终探讨的问题是: 如何实验笛卡尔空间下直线和圆弧的轨迹规划并且在
1.1位置描述 一般来说空间中一个末端的位置和姿态分为位置和姿态两部分位置:就是直接用x,y、z三个坐标来表示。如下图 1.2姿态描述 我们以下重点讨论姿态的表示方法,在下文会对其分别进行插值探讨 1.2.1RPY旋转 1.2.2欧拉旋转 和RPY旋转的对比 1.2.3单轴旋转 1.2.4双轴旋转 1.2.5四元数 这个位置我明天会单独发一篇帖子,因
0.前言 接上文C++基础与深度解析01,本篇主要介绍C++的输入输出流,如下 1. 基础概念 1.1头文件通常,在一个 C++ 程序中,只包含两类文件—— .cpp 文件和 .h 文件。其中,.cpp 文件被称作 C++ 源文件,里面放的都是 C++ 的源代码;而 .h 文件则被称作 C++ 头文件,里面放的也是 C++ 的源代码。当想在test01.cpp中使用test01.h文件中定义
0.前期准备 请安装Visual Studio并学习基本的新建项目、新建CPP文件以及运行代码。 1.从Hello World 开始 1.1代码内容函数功能:打印“Hello World” #include<iostream> int main() { std::cout << "Hello World" << std::endl;
INS学习01——VINS_Fusion官方教程翻译解读 我爱编程皮肤好好 已于 2022-12-05 17:32:59 修改 1616收藏 21分类专栏: 相机SLAM 文章标签: 学习版权 相机SLAM专栏收录该内容4 篇文章3 订阅订阅专栏1.简介VINS_Fusion 是一个基于优化的多传感器融合定位算法,由港科大开源,在VINS_Mono基础上改进。融合传感器包括:IMU,双目相
0.简介在学习视觉SLAM过程中,先后用了VINS_mono,VINS_Fusion,Omni_swarm,因为是第一次做视觉相关定位,所以大部分库都是第一次装,中间还从虚拟机换到双系统,意识到记录的重要行性,所以在此记录安装相关依赖库的教程。环境: Ubuntu18.04 eigenceres3.Opencvcv_bridgeVINS_Mono/Fusion测试 1.Eigen在安装Eige
1.3D激光雷达系列主要内容结合个人毕业设计和日后发展方向,开始学习3D激光雷达的相关感知算法,预计SLAM(定位和建图)开始,本篇给出简单的框架和绪论,后边会按照图优化/滤波原理、传感器基础、数据预处理、主流激光雷达SLAM定位算法框架等顺序继续更。2.3D激光SLAM思维导图
1. 本文简介本文依照港科大开源的代码和论文文章主要内容:对无人机集群实现协同定位。参与融合的定位因子有以下4点 1.全向鱼眼相机的VIO定位:VINS-Fisheye2.基于地图定位:视觉特征点协同建图3.基于UWB协同定位:节点间测距4.视觉检测定位 2.论文框架 3.算法安装与环境配置 3.1 创建工作空间 备注:3.2中安装插件cv_bridge中也创建过,不要重复创建,
1.本篇思维导图 2. 3D激光雷达传感器分类 3. 机械激光雷达 直观视频感受:Velodyne优点:360°视野,精度高,工作稳定,成像快缺点:成本较高,不符合自动驾驶车规,生命周期短,主要厂商:Velydone、禾赛、速腾原理:激光雷达通过测量激光信号的时间差和相位差来确定距离,对于每个点来说,原理如图所示 机械式激光雷达可实现360°扫描,一般有4/16/32/
1.本篇大纲 2.前端里程计综述解决的问题:由原始点云信息求解得到两个关键帧之间的相对位姿约束输入:原始点云信息输出:两个时刻之间的位姿关系 P = [R T] (4x4)主流流程: 点云预处理(提取特征)→建立Loss模型→最优化模型求解→得到P矩阵 3.直接匹配的ICP系列1)思路:对原始点云进行采样→寻找最近关联点建立Loss模型→求解R,T2)主要方法框图:3)模型推导 4.直接匹配
简介 上一篇跑了一下VINS_Fusion自带的demo,用的是几个常用的开源数据集,这篇文章主要是将VINS_Fusion用在自己的实验室设备上,在进行前期参数标定、config文件修改、精度验证过程中对算法有更深次理解,也方便后期开展代码阅读。 2.相机参数标定2.1相机型号realsense_d435i是一个很常用的相机,主要包含话题如下 1.imu话题
1.matlab读取ros下标准话题消息 1)准备工作 录制一个rosbag包我的rosbag包格式如下 很简单 只有一个topic类型为:nav_msgs/Odometry名称为: /uwb_position2)matlab代码读取 我直接给出matlb代码 ,详细解读看注释 bag_uwb1 = rosbag("C:\Users\Administrator.DESKTOP-0SCKJ
0.前言 我在上一篇博文07轨迹规划仿真中实现PTP的轨迹规划,并且把圆弧轨迹规划的坑挖好了,但是我一直很难受的地方就是终端的轨迹显示,我之前解释了我实习UR10moveit控制的方式,是使用官方panda的教程进行修改,但是panda的教程是可以用绿色轨迹线显示轨迹的,这篇blog我想处理一下这个问题。 感谢博主的文章,激发我的灵感 https://blog.csdn.net/goph
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信