对于熟悉ROS的朋友们来说,图像的topic有了,我们就可以开始自己想干的事情了。这里我创建一个名为hs_image_sub的package来处理角蜂鸟的图像,图像的topic 名字为上一篇提到的:/hs/camera/image_raw. 也是我们打开rqt_image_view窗口看到的东西。 这篇博客主要是利用opencv来获取角蜂鸟图像,然后做一个阈值处理,并且打开窗口显示原图和处理后的
在翻看教程的时候,无意中发现居然可以和ROS接入,还是挺兴奋的。因为自己C++用的比Python多。 https://hornedsungem.github.io/Docs/cn/workflow/ros/quickstart/ 安装ROS和编译都没有多说的,不过还是发现了一点点小错误,include没有s。 编译通过后,输入命令: roslaunch horned_sun
本篇的硬件环境一样,跟着官方的教程来深度体验下角蜂鸟的人工智能的实力。根据官方介绍,角蜂鸟内置的几种深度神经网络模型如下,包括数字识别、人脸识别和物体识别等。 MNIST 数字识别模型 Mobilenet-SSD 人脸检测模型 Mobilenet-SSD VOC物体检测模型 SqueezeNet 图像分类模型 GoogleNet 图像识别模型(特征提取) FaceNet 人脸识别模型(
硬件平台:角蜂鸟 + 虚拟机Ubuntu 16.04 + ROS Kinetic 1. 角蜂鸟AI视觉套件开箱及简要介绍 定位于嵌入式人工智能感知平台的触景无限科技(北京)有限公司,最近推出了一款名为角蜂鸟的AI视觉套件,官网售价699元,我有幸作为体验者,通过预交押金的方式,拿到一个套件体验体验。因为他们官方只要求提交试用的文章,对平台没有限制,因此索性就写到博客里来了。拿到
市面上已经有很多厂家都在做三维相机了,各家都宣称自己精度1m@1mm、1m@0.5mm,如果选型好了之后,当我们终端用户拿到相机,现场想试试成像效果,看看精度该如何操作呢?或者某个算法需要定位精度达到1mm,拿到相机样品做实际算法测试,以便日后大规模量产又该如何测量呢?想必大家平时一定都有这个问题,这方面的资料比较少,就目前的手头平时的资料整理下来,算是抛砖引玉,希望大家研究这方面的
空格键保存深度图和彩色图,办公室环境三维重建 /home/yake/catkin_ws/src/pcl_in_ros/src/16_02rgb_depth_saver.cpp rosrun pcl_in_ros rgb_depth_saver #include <ros/ros.h>#include <sensor_msgs/PointCloud2.h> #inclu
在前面的三篇中,对ros_control也有个大致了解了。这篇就是将之前学到的用于我们实验室的平台KUKA youBot上。在此之前,其实网上已经有关于youBot在Gazebo下的仿真视频了。 另外说个题外话,用Gazebo和Rviz都可以做仿真,Gazebo最强大的是拥有物理引擎,有物理渲染,有碰撞效果、重力等等。 这里参考的package主要是: https://github.com/
在上一篇中介绍了ros_control的两个应用,但是还没结束,因为规划问题是一个很重要,而且也很有挑战性的问题。好在ROS里提供了一些规划的接口,比如主要用于机械臂规划的MoveIt,其实它也可以用于规划底座,这个只是在Moveit的一个PPT里看见过,是用于PR2的,其他的好像没看见过。这里主要是将上篇的7自由度手臂结合ros_control与Moveit。 1. 关于Moveit的配
在上一篇文章里,结合Gazebo官方的RRBot(2自由度机械臂)的相关配置文件,介绍了一些关于ros_control的基本知识。这里结合《Mastering ROS for Robotics Programming》这本书里的7自由度机械臂和一个两轮差速运动的小车再来探究一番。 首先根据上篇博客和书中的内容我们来总览一下,随后的操作都是基于这个来设置的。因为要仿真所以需要机器人模型,所以先得
不久前,师弟问了我一个问题:“师兄,我要控制一个机器人在仿真环境下运动,需要学什么,或者从哪里入手呢?“ 这个问题不是那么好回答,urdf——Gazebo——ros_control——MoveIt,这是我在很久后才能给出的一个答案。那么之前我是怎么做仿真的呢? 1. 借助Arbotix舵机接口来仿真 之前是在学习《ros by example volume 2 》的时候,接触到一个rb
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信