前言 物体检测是计算机视觉的典型问题之一,是使用框来标记图像中对象的位置并指定对象的类别。从传统的人工设计特征和浅层分类器的框架到基于深度学习的端到端检测框架,目标检测越来越成熟。 在学习YOLO算法前,我还是先从物体检测算法发展开始学习。学习以往出现的物体检测算法,了解其各自的优缺点以及YOLO算法在此基础上有何改善。 其他物
根据opencv4.1官方文档学习,并添加个人笔记 import numpy as np import cv2 as cv # img:您要绘制形状的图像 # color:形状的颜色。对于BGR,将其作为元组传递,例如:(255,0,0)对于蓝色。 # 对于灰度,只需传递标量值即可。 # 厚度:线或圆等的粗细。如果对闭合图形(如圆)传递-1 ,它将填充形状。默认厚度= 1 # li
新买了个realsense 的相机,正好最近有空调试一下,安装过程总体还是比较顺利的,大体步骤如下: 1.安装realsense的SDKSDK的安装过程主要根据realsense的官方教程执行的,不过我参考了一些别的博客之类的所以安装步骤略有差别。1.1执行ROS distribution: 实际上我只执行了第一步的update,因为我在一篇论文中看到说最后的dist-upgrade会更新你Ubu
根据opencv4.1官方文档学习记录 import cv2 as cv # 主角 from matplotlib import pyplot as plt # 画图库 # 读取,第一个参数是文件,第二个是读取方式 img0 = cv.imread('image1.jpg', 0) # 灰色加载 img1 = cv.imread('image1.jpg', 1) # 彩色加载且忽视透明度
0. 前言 这篇博客作为下篇博客的准备工作,下篇博客介绍 Mask2Former 的使用,2022年了,当然要用 Transformer 来代替卷积。Github:https://github.com/facebookresearch/Mask2Former 1. 数据集制作 1.1 数据标注 1.1.1 自己标注 标注软件Labelme:https://github.com/wkentaro/l
环境:Win 10、Spyder4.2.5、Python3.8 在上一篇博客中,主要采用OpenCV库自带的二维码、条形码检测与识别模块,实验结果显示检出的精度很低,这一方面是由于图片是静态的,不能进行缩放,而正常手机二维码和条形码的扫描,手机使用者可以调整摄像头到二维码的距离来提高检测和识别精度。在这节中主要针对采用Pyzar库实现二维码和条形码的检测和识别,并通过摄像头进行实时识别效果显示。
内容翻译⾃http://wiki.ros.org/rtabmap_ros/Tutorials/SetupOnYourRobot 1.介绍 机器⼈必须⾄少配备⼀个类似 Kinect 的传感器。 我 强烈建议 按照 校准类似 Kinect 的传感器 本指南 。 如果您想使⽤ 2D 激光,Kinect 的云必须与激光扫描对⻬。 我将在接下来的部分中介绍⼀些可能的配置,具体取决于机器⼈和⽰例启动⽂件。 推
下面的代码通过两种方式生成了变换矩阵,并执行了变换及可视化。 #include <iostream> #include <pcl/io/pcd_io.h> #include <pcl/io/ply_io.h> #include <pcl/point_cloud.h> #include <pcl/console/parse.h> #
下面代码演示了如何从深度图中提取我们感兴趣的NARF关键点。 #include <iostream> #include <boost/thread/thread.hpp> #include <pcl/range_image/range_image.h> #include <pcl/io/pcd_io.h> #include <pcl/v
前言 CPU对于图形运算能力有限,使用CUDA加速可以大大提高点云处理的速度。 默认电脑有英伟达显卡并且已经配置好显卡驱动、CUDA和cudnn环境。 环境配置 系统要求 系统:Ubuntu适用,Win不适用。 我的系统:Ubuntu 20.04 检查CUDA版本 nvcc --version | grep "release" | awk '{print $6}' | cut -c2- 检
本篇将展示如何串联两个不同点云的点。此处强加的约束是两个数据集中的字段类型和数量必须相等。后面还将展示如何连接两个不同点云的字段 (例如, 维度)。此处强加的约束是两个数据集中的点数必须相等。 #include <iostream> #include <pcl/io/pcd_io.h> #include <pcl/point_types.h> int
PCL中的基本的数据类型是点云(PointCloud),是一个C++类。它包括以下成员: 1、width(int) 对于有组织的点云数据,它代表数据集的宽度; 对于无组织的点云数据,它代表该点云中所有点的个数。 有组织点云(organized point cloud),是类似图像矩阵的有组织的点云数据,被拆分为行列,它能够快速的根据空间关系进行近邻操作,加快运算速度,降
本篇主要演示使用KdTree查找特定点、位置的K近邻或最近邻,以及用户指定半径范围内查找所有近邻,并计算出距离。 KdTree是计算机科学中用来组织K维数据点集的数据结构。类似二叉树。在三位点云中主要用的是三维的KdTree,这种数据结构能提供快速的查找近邻算法。 代码: #include <pcl/point_cloud.h> #include <pcl/kdtree
1、读取PCD文件 #include <iostream> #include <pcl/io/pcd_io.h> #include <pcl/point_types.h> int main (int argc, char** argv) { // 定义一个 pcl::PointXYZ 类型的点云共享指针,并初始化 pcl::PointCloud&
搞了将近半个月的驱动,终于把该弄的驱动问题全都搞定了 目前libfreenect2,iai-kinect2,ORB_SLAM2都能正常的跑起来,更进一步的问题来了,如何使用我们亲爱的kinect v2去完成我们的orb_slam2呢?让我们来慢慢研究研究 https://blog.csdn.net/wangshuailpp/article/details/75299865 首先肯定是先给相机做标定
正态分布变换(NDT)算法是一个配准算法,它应用于三维点的统计模型,使用标准最优化技术来确定两个点云间的最优的匹配,因为其在配准过程中不利用对应点的特征计算和匹配,所以时间比其他方法快。下面的公式推导和MATLAB程序编写都参考论文:The Normal Distributions Transform: A New Approach to Laser Scan Matching 先回顾一下算
Realsense2深度相机的基本操作命令 1、rostopic (1)rostopic list (2)rostopic info (3)image_view 2、rviz 3、rosbag 4、rqt_graph 1、rostopic (1)rostopic list 运行 roslaunch realsense2_camera rs_camera.launch
一、机器人控制系统总体框架设计 这几章内容主要集中在机器人的视觉控制、三维目标抓取这一部分,也算顺着之前的CT-LineMod算法继续谈一下计算机视觉这一部分的内容。第一节这个总体框架设计在接下来的视觉、抓取、导航部分都会放在前面,以帮助读者理解一下各个部分的功能以及把握整体性。 二、机器人视觉系统 深度相机、激光雷达等外部硬件设备提供的RGB-D图像以及环境信息来源作
本教程演示如何使用已知系数的几何模型,例如平面或球体,对一个点云进行滤波操作。 代码如下 #include <pcl/point_types.h> #include <pcl/visualization/pcl_visualizer.h> #include <pcl/filters/model_outlier_removal.h> #include <p
利用 PCL 可以分割坐落于某一平面上的物体,首先要对整体点云执行平面分割,以找到场景中的某一平面,然后利用 pcl::ExtractPolygonalPrismData 类,可以分割出在该平面之上的物体聚类。 具体的使用流程是: 加载点云 滤波之类的预处理(这一步可有可无,取决于你的点云是否需要滤波) 对整体点云执行 RANSAC 平面分割,得到某一平面的内点索引 inliers 和平面方程系
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信