开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP实现基于CAD模型的目标跟踪,需要提供目标物体的CAD模型文件(cao格式或者vrml
开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP实现运动的边缘跟踪,调用摄像头获取视频图像,并从第一帧图像中选择需要跟踪的物体边缘,确
1.train configure文件表示整个模型结构,是mmdetection里面最重要的部分。就是使用一个configure文件来管理所有的内容,是因为整个ML的参数太多了,所以统一在config文件夹中进行设置。 具体要写多少层,训练策略,选取的优化器,数据的处理等,这些所有的参数你都不能每次都去源码里面去改,那就把这些所有的事情都写到一个config文件里面。然后让一键
开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP实现关键点跟踪,实现过程使用了OpenCV中的KLT跟踪算法,主要流程是在第一帧图像中
开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP实现连通区域的跟踪,具体而言就是以鼠标点击的位置作为起始点搜索最近的连通区域,然后根据
开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP实现泛洪算法,所谓泛洪算法就是在一个封闭图形中从一个像素点出发,以此向周边的像素点扩充
开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP实现连通区域标记,本文主要参考了 imgproc中的 tutorial-connecte
开发环境:Ubuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1文章内容主要参考ViSP官方教学文档:https://visp-doc.inria.fr/doxygen/visp-daily/tutorial_mainpage.html 本文主要介绍了如何使用ViSP从二值化图像中提取轮廓,本文主要参考了imgproc中的 tutorial-conto
前言 “相机就是计算机的眼睛。” —— 哲学砖家阿瓦里斯基 好吧是我说的这句话其实仅代表的是我的观点,相机之于计算机正如眼睛之于人,人眼就可以看成两台精密的相机。不过,不同于人眼的随时调节,对人造的相机,其各项参数就相对固定,易于调节,这也为 CV 的研究提供了方便。相机的参数是 CV 里一项很重要的基础课,我在这里会尽量讲的浅显易懂。 相机模型 —— 从小孔成像说起 说起来,这是初中
0. 简介 作为22年比较重磅的物体识别算法,作者觉得不得不说一说,虽然作者目前主要方向不是深度学习了,但是里面很多重要的操作还是值得回味的。这里就从想要大致了解Yolo v7同学的眼光来对v7的算法进行介绍。并按照原文《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detecto
内容列表 系列前言 API 函数详解 参数列表 缩放方式其一 缩放方式其二 两种方式的优先级 关于插值方式 扩展 —— 相关函数 系列前言 这个系列是我第一个想要更下去的系列。每篇会全面介绍一个 OpenCV 函数,会给出 API 和示例。示例主要是用 Python 去写,但是 OpenCV 的原生语言是 C++,所以想翻译过去其实很简单。介绍过程
http://www.woyilian.com/gps_car 可以免费注册和登录,然后添加设备,利用地图进行规划。 前言 好多年前的一个想法,然后就自学html 、js 寻找开源库等一点点实现了。寻思着,只要有GPS定位,然后就可以在地图上规划一些列的经纬度坐标点,然后下发给终端车,这样的话可以在园区,工厂,小区,太阳能发电坡地,高压检测变电站,等有无人值守的环境中让智能车机器人按规划好的路
起因 我为什么选择 Atom Atom 在 Windows 的文本编辑器里面可以说是完全拍的上号的,用的人也比较多。我选择 Atom 主要还是因为之前用过 Vim,而 Atom 的 Vim 插件已经把常用功能全部都做到位了,包括 (Ctrl + A / Ctrl + X) 进行数字增减的操作。加上一个 ex-mode 插件实现 : 命令,已经非常贴合 Vim 的使用体验了。至于为什么不用 Vi
MASKRCNN识别水坑并标记出mask 蒙版来,然后让机器人在行驶过程中避免进入水坑,对于某些特殊场景,专门检测水坑 并避免驶入也是非常重要的。 文章的内容是构建一个自定义的 Mask R-CNN 模型,该模型可以检测道路上水坑区域(参见 图像示例)。实际上可以利用图像分割做好多事情,如果机器人在行驶的过程中有针对性的检测水坑然后绕过水坑行驶,以免水坑太深没过机器人。
依旧是前言 我在前一篇欧拉角的介绍里介绍过欧拉角,这是一种很直观的旋转表示。直观并没有什么不对的地方,但是我们人认为的直观,和机器认为的直观是有区别的… 欧拉角,这个旋转的表达方式从欧拉提出开始沿用至今,依然有顽强的生命力。现在的几种流行的 MOCAP 文件格式,ASF / AMC, BVH, C3D,除了最后一种存的是三维坐标,前两种的旋转全部是用欧拉角表示的。说实话,这并不是什么好事儿
图像分割中有很多好玩的应用场景,接下来就利用 matterport 的MASKRCNN识别道路井盖并标记出mask 蒙版来,然后让机器人在行驶过程中检测井盖, 目前只是觉得将来会有有一定的实用价值,先做出来看看。 文章的内容是构建一个自定义的 Mask R-CNN 模型,该模型可以检测道路上井盖区域(参见 图像示例)。实际上可以利用图像分割做好多事情。本
BVH简介 BVH是BioVision公司推出的一种人体动作捕捉文件格式。这种文件以节点为核心元素,记录连续数帧内人体骨架的运动。 BVH=? 研究一个东西的时候我比较喜欢先研究它的名字。BVH可以认为是BioVision Hierarchy的缩写,因为这类文件对节点的组织是按照树形结构来的,也就是层次化(hierarchical)的。关于这个名字还有另一种可能的解释:如果你去查询Blend
配网阶段 1、 USB wifi模块的网络请根据商家提供的说明进行实名认证和配置 2、 树莓派机器人的配网 初次使用,需要配置好WiFi的名称和密码,以便机器人上网需求。 步骤: 1、连接好硬件,给树莓派供电。树莓派系统起来后,顶层的扩展板指示灯会常亮、明亮。 2、系统起来后,长按顶层的扩展板上的按键5秒钟,发现顶层的扩展板指示灯变成闪烁状态后,打开手机搜索热点,”gps_car”并连
欧拉角定义 欧拉角(Euler Angle),由著名数学家莱昂哈德·欧拉(1707-1783)提出,故而得名。欧拉角旨在用三个角度来表示刚体在三维空间的旋转。这种表示方法经历了3个世纪,其实已经非常古老了,自身有一些局限性,塞利斯基(Richard Szeliski)所著《计算机视觉:算法与应用》一书中对欧拉角甚至只是一笔带过。但是欧拉角现在依然在广泛使用,因此仍然有深入学习的必要。 首先我们
关于上一篇的YOLOv5讲到数据集打包结束,之后的后续训练工作会在此篇继续进行说明。(Linux系统下训练数据集,在此用的是Ubuntu20.04) 第一步准备工作先是配置环境: 在当前文件目录下打开终端输入: pip install -r requirements.txt pip install -r requirements.txt pip install -r re
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信