前一个星期搭建了Ubuntu16.04 以及机器人平台Kinetic for ROS。这周开始利用IntelRealSense ZR300深度相机进行物体识别,并利用到新的点云来检测。好了下面来记载一下自己踩得坑。 关于搭建Ubuntu Kinetic 和ROS:http://wiki.ros.org/cn WIki百科 反正我没怎么看 ROS Robot Programming(EN
前后忙碌了两个星期,从最开始采用PCL进行目标物体检测分割到后面发现另一种简便的方法ORK一步步采坑调通,先将步骤记录下来。任务主线是深度相机看到物体是什么、在哪儿,接着讲位姿发送给机械臂进行抓取,这两周主要解决了用深度相机检测一个可乐罐以及发布其位置信息。(盗版内容太多了,不过我会偶尔更新内容以及在邮箱进行回复大家) 好了开始这两周的工作内容总结: 运行环境:Ubuntu16
1.机械臂UR的控制包括两种,一种是通过终端控制 比较笨重不方便,用于测试使用,另一种是通过ros例程包,订阅位置信息控制机械臂的移动,moveit自动规划机械臂的路径,并躲过设置好的盒子(box) 手部RG2机械手的控制一种是通过终端的程序,在大终端中创建空程序 、结构、RG2、命令、带宽。 2.步骤 #roslaunch ur_control ur10_control.launc
首先分享学到的两个软件(插件),对以后的论文下载以及整理论文非常有帮助。 1.zotero 不论是window还是linux 在Firefox及Chrome下载软件并安装插件就可以方便的下载打开的链接里面的文章,也可以加自己的论文等等来整理。 开始正题,最近对于Mobile robot SUMMIT-XL STEEL机器人底盘控制的学习 https://www.robotnik.
参考文章了链接: https://blog.csdn.net/zhang970187013/article/details/81098175 https://github.com/IFL-CAMP/easy_handeye/tree/master https://blog.csdn.net/sinat_23853639/article/details/80276848 跑了一个星期
接着上述的工作,在将近一个月的摸索实践中,终于完成了抓取的工作。其中包含tf坐标系的转换以及最后位置的调试工作。 这一篇先讲述如果进行根据camera_link以及base_link之间的转换关系完成一个点、一组点的进阶坐标转换。接着之前的手眼标定,连接起相机以及机械手臂的tf_tree. #rosrun rqt_tf_tree rqt_tf_tree 这
继续昨天的内容总结,之前已经成功将识别到的物体位置发布出来作为一个全局变量。这一篇则是讲最终的问题,虽然前面的步骤都做完了,而且最后这步没什么实质性的编程,但是一直机械臂一直有问题,且运行错误或者到达不了预设的位置,本篇即以此为基础进行总结,分析最终不能成功可能的原因,并给出一个合理的开发调试建议。 首先惯例先给出几篇参考网址 1.这个是之前写的文章下面交流的时候有提到的参考网址,
UR机械臂系列
博客
泡泡
积分
勋章
IntelRealSense ZR300 For ROS相关 系列第一篇
ROS IntelRealSenseZR300 PCL+ORK+Linemod 柱状物体检测 机械臂抓取 系列第二篇
UR机械臂+RG2机械手控制 学习及实际控制 系列第三篇-1
Mobile robot SUMMIT-XL STEEL机器人底盘控制学习 系列第三篇-2
UR10 RG2机械臂手臂+RealsenseZR300 机器人手眼标定 系列第四篇
IntelRealsenseZR300-TF坐标转换 系列第五篇
IntelRealSenseZR300+UR10RG2机械手臂+Linemod算法 机械臂抓取可乐罐 系列第六篇
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信