本博客为《OpenCV算法精解:基于Python与C++》一书(参阅源代码链接)的阅读笔记,根据理解对书中绝大多数算法做了总结和描述,对Numpy较为熟悉,Python方面仅对与C++不同的注意事项做了标注。书作者整体按照冈萨雷斯的经典教材《数字图像处理(第三版)》和OpenCV知识脉络组织内容,每个算法均用Python和C++两种语言实现。除官方函数外本书给出了多数算法函数的自定义版本便于读者理
内容列表 机器视觉原理 开源软件或框架 OpenCV TensorFlow PyTorch YOLO 对于人类来讲,90%以上的信息都是通过视觉获取的,眼睛就是获取大量视觉信息的传感器,然后再交给大脑这个“处理器”进行处理,之后我们才能理解外部环境,建立世界观。 如何让机器人也能理解外部环境呢,我们首先想到的就是给机器人也安装一对眼睛,是不是就可以和人类
我在Gitee上建了个仓库,会将学习书本的时候打的一些代码上传上去,笔记中所有代码都在仓库里,初学的朋友可以一起交流哦!地址(Gitee) 第六章 图像增强 图像增强的概念和分类# 基本概念:图像增强:通过某种图像处理方法对退化的某些图像特定特征(如边缘、轮廓、对比度等)进行处理以改变图像的视觉效果。 分类: 空间域法常用增强方法有点运算和模板处理两大类,点运算是作用
我在Gitee上建了个仓库,会将学习书本的时候打的一些代码上传上去,笔记中所有代码都在仓库里,初学的朋友可以一起交流哦!地址(Gitee) 第五章 图像运算 图像的代数运算# 加法运算# 以平均处理的方法将图像加法运用到图像的去噪中,先将噪声η(x,y)加入原始图像f(x,y)f(x,y)中,即g(x,y)=f(x,y)+η(x,y) 然后重复操作数次,将得到的K张不同的
我在Gitee上建了个仓库,会将学习书本的时候打的一些代码上传上去,笔记中所有代码都在仓库里,初学的朋友可以一起交流哦!地址(Gitee) 第四章 HALCON数据结构 HALCON数据结构主要有图形参数和控制参数两类 HALCON Image图像# 根据像素点的信息可以分为二值图像、灰度图像、RGB图像 图像通道# 图像通道可以看作一个二维数组,每个像素点(r,c)的灰度
我在Gitee上建了个仓库,会将学习书本的时候打的一些代码上传上去,笔记中所有代码都在仓库里,初学的朋友可以一起交流哦!地址(Gitee) 第三章 HALCON图像处理基础 HALCON控制语句# if条件语句 HALCON提供的控制流跟C/C++的差不多,也与RAPID语言有点像,有if就会有endif,while和for也类似这样 num:=10 if (n
用OpenMV自动识别颜色序列 主控:OpenMV3 M7摄像头(STM32F765)IDE:OPENMV官方IDE 我将Capstone期间做的代码上传到Gitee啦,后续还会陆续上传代码上去的,地址:Capstone,如果对你有帮助的话不妨点个⭐支持一下~ OpenMV需要识别颜色顺序的位置是第一个区域,区域中的物料摆放如下图所示 对于OpenMV识别颜色,很大
DanceTrack 运动跟踪数据集 简介 DanceTrack 是一个大规模的多对象跟踪数据集。用于在遮挡、频繁交叉、同样服装和多样化身体姿态条件下对人进行跟踪。强调运动分析在多对象跟踪中的重要性。 GitHub地址:https://github.com/DanceTrack/DanceTrack数据集下载地址:https://pan.baidu.com/s/19O3IvYNz
两段程序分别测试视频和图片数据,算法参数相同(视频里没有对应改参数过滤车道线,但因为斑马线清晰所以不用过滤也无影响)设置DEBUG变量为True时会输出每一步图像用于逐帧debug和调参(按下任意键或者按住不放下一步),设为False则只画最后结果图。红色方框是判断为斑马线的滑窗,紫色方框是最终输出的斑马线位置(紫框计算目前默认了图内只会出现一条斑马线) github: https://gi
一、实现目标及效果 利用笔记本电脑上的摄像头,通过ROS和OpenCV,利用Haar Cascade进行人脸检测 参考文档:https://docs.opencv.org/4.5.2/db/d28/tutorial_cascade_classifier.html (不宜露脸) 二、实现过程 1、安装usb_cam sudo apt-get install ros-kinetic-u
写在前面 Matlab版代码:https://blog.csdn.net/weixin_40647819/article/details/89603660 最近刚好写到了直方图均衡算法,因为之前用到过图像增强,就大致地再多了解了一下,看到了POSHE算法,这个算法也算是比较经典的吧,有一些它的优势。其实这篇论文是很老的论文了,是韩国人提出的,目前看来可能意义不大,但是我看了一下引用情况,中文论
写在前面 POSHE算法原理解读及c++代码实现请看:https://blog.csdn.net/weixin_40647819/article/details/88416512 这次用MATLAB实现。 代码 git 下载地址:https://github.com/2209520576/Image-Processing-Algorithm/tree/master/Grayscale%
写在前面 接着上次的博客写,上次已经介绍完了POSHE部分,也为这次写BERF做了一些铺垫。在这次正式开始之前,还是先放两张图片,以说明执行BERF的必要性: 仅执行POSHE
Roberts算子边缘检测原理及实现 写在前面我们知道,进行边缘检测有两种方法:一阶导数的极值、二阶导数的过零点。 Robert算子是一种一阶微分算子,而且Robert算子是第一个边缘检测算子,提出者是Lawrence Roberts in 1963。 从这篇博客开始,会陆续介绍几种经典的边缘检测算子。先附上各种边缘检测算法的优缺点: 原理Roberts算子是一种斜向偏差分的梯度计算方
一、图像处理技术概述 1.定义 对原始获取图像进行一系列的运算处理,称为图像处理。图像处理是机器视觉技术的方法基础,包括图像增强、边缘提取、图像分割、形态学处理、图像投影、配准定位和图像特征提取等方法。 2.颜色的基本定义 GB 5698-85,颜色定义为:色是“光作用于人眼引起除形象以外的视觉特性”。 3.三原色(tricolor) 二、图像增强概述 1
摄像机标定的目的:三维重建 空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系是由摄像机成像的几何模型决定的,这些几何模型参数就是摄像机参数,为了得到这些参数而进行的实验与计算的过程称为摄像机标定。 在标定过程中通常要利用数学方法对从数字图像中获得的数据进行处理。通过这些数学处理,可以得到摄像机的内部和外部参数。 一、成像几何模型1.世界坐标系 2.
机器视觉的硬件中,光源为视觉系统提供足够的照度,镜头将被测场景中的目标成像到视觉传感器(CCD)的靶面上,将其转变为电信号,图像采集卡将电信号转变为数字图像信息,即把每一点的亮度转变为灰度级数据,并存储为一幅或多幅图像;计算机实现图像存储、处理,并给出测量结果和输出控制信号。 一、镜头技术 镜头是集聚光线,使成像单元能获得清晰影像的结构。光学镜头目前有监控级和工业级两种,监
主要把图像处理的一部分经典基础算法梳理并实现了一遍,主要是用VS2013+OpenCV3.1.0做的。 主要目的:一是为了把基础巩固一下,以便更高效地看论文;二是为了工作基础。 因为以前在学习和研究的过程中发现自己基础不牢,缺乏对图像处理理论的系统认识。比如看论文时,遇到很多基础的小点都得去查,发现很多地方好像都是沟沟坎坎;因为知识缺乏系统性,所以思维很局限,没办法展开和联想,被作者牵着走,感
如今,中国正成为世界机器视觉发展最活跃的地区之一,应用范围涵盖了工业、农业、医药、军事、航天、气象、天文、公安、交通、安全、科研等国民经济的各个行业。其重要原因是中国已经成为全球制造业的加工中心,高要求的零部件加工及其相应的先进生产线,使许多具有国际先进水平的机器视觉系统和应用经验也进入了中国。 一、机器视觉系统基本原理(一)定义 机器视觉(machine vision)是由计
前言 以场景点云为中心的点云任务(如重建、配准等)常常采用3D相机采集数据,而以物体点云为中心的点云任务大多是从3D模型离散化得到的,因为真实环境采集到的物体点云需要与环境分割并去噪的,较为麻烦,不利于大规模数据集的制作。 常见的开源点云数据集: 场景点云:3DMatch 物体点云:ModelNet40、ShapeNet 考虑到物体点云的采集困难,一些在仿真环境下获取点云
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信