上一篇博客(Python开发非金属涡轮表面缺陷检测上位机)我们主要讲述了对涡轮表面缺陷检测上位机的一些开发流程,并对涡轮表面缺陷检测的效果进行了展示。这一篇博客我们主要对所开发的上位机的程序进行一些讲解(文章内附带上位机程序)。 我们首先将上位机开发后的功能演示视频进行一下展示,然后后面再详细介绍上位机代码,上位机功能演示视频如图1所示。 图1 上位机功能演示视频 上位机代码: 上位机文件格式如
0 前言: 涡轮通常用采用的材质为金属或非金属(塑料),金属材质的涡轮进行缺陷检测可使用磁力探伤的方式,但非金属材质的涡轮无法使用磁力探伤,通常采用超声波探伤的方式。而使用超声波探伤的方式通常面临两个问题: 第一、要求非金属材料为良导体。 第二:超声波探伤设备价格较贵(价格区间8K~20K左右)。 图1 金属涡轮 图2 非金属涡轮 图3 非金属涡轮表面缺陷示意图(黑色圆弧为记号笔所做标
点云处理算法整理(超详细教程) 目录 一. 线性回归_最小二乘法、梯度下降法 二. 线性回归_最小二乘法、RANSAC算法 三. 最近点迭代_ICP算法 四. 常见三角网格划分_voronoi图和Delaunay三角剖分 五. PCL曲面聚类分割算法优缺点分析 六. 区域增长算法、欧几里得聚类算法 七. PCL AABB和OBB包围盒算法 一. 线性回归_最小二乘法、梯度下降法 https://w
参考自:http://wiki.ros.org/rospy_tutorials/Tutorials/Makefile 说明:观看 古月君的 ROS入门-21讲,里面没有涉及python程序的运行 请参照本文,直接复制粘贴即可,不用更改内容。如果出现错误,请检查自己的运行环境是否正确 系统: Ubuntu16.04 ros indigo .py并不是可编译的脚本文件,但是为了适应ros统一的编译体系
1、前言 近年来,无人驾驶技术属于比较热门的话题,无人驾驶技术通常采用单目相机进行周围环境信息采集,然后通过目标识别算法对周围物体进行检测和识别。由于单目相机无法精确获取场景中目标物体的距离等深度信息,因此,越来越多的企业和高校选择使用三维激光雷达进行环境信息获取。三维激光雷达采集的数据为3D点云(包含空间物体的XYZ信息),而目前处理点云数据的工具通常只能对单帧点云数据进行处理和
1、前言 上篇博客:教你用Python快速开发3D点云数据处理上位机(1),主要给大家介绍了了一些点云常用的处理工具,因为目前图像数据处理相对成熟,而三维点云数据处理资料相对较少,所以上篇博客中主要将一些3D点云处理工具进行了总结。 下面我们主要讲一下上位机的程序的开发过程,由于教你用Python快速开发3D点云数据处理上位机(1)这篇博客中的更新后版本的代码量太大,我们将其中的3D点云显示程序提
从零教你设计ROS试验车(1) 从零教你设计ROS试验车(2) 从零教你设计ROS试验车(3) 从零教你设计ROS试验车(4) 前面几节博客我们主要讲了机器人的选型、传感器的通讯报文解析,并给大家展示了运动控制的效果。这节博客我们对上位机的控制程序进行介绍。 再来看一下上位机的主界面: 首先我们需要加载必要的Python库函数(可以使用pip安装): import os, sys #
1、前言: 很长一段时间都在做3D激光雷达以及图像的数据处理这一块的工作,根据以往数据处理过程中遇到的问题,打算自己开发一套工具,用于提高开发效率。 在20年02月份便开始着手准备去做这件事,由于工作太多,导致进度一直断断续续,下面我们首先给大家介绍一下如何制作这样一款上位机。 1、我们使用PyQt5搭载的界面框架(如果喜欢Tkinter开发界面的话,也可以参考Tkinter教程链接) 2、数据处
1、前言: 从零教你设计ROS试验车(2)中我们主要讲了升级后机器人的运动控制,这篇博客我们主要讲述一下机器人如何实现自主巡航。 机器人实现自主巡检,首先需要对周围环境进行感知,并对周围目标进行识别,然后进行机器人运动控制。关于机器人目标识别,我们提出以下三种方案(仅供参考),分别是: 1、使用单目相机进行障碍物识别,通过相机计算机器人与目标物体距离(精度较低)。 2、使用双目相机进行障碍物识别,
因个人原因断更了一段时间,非常抱歉! 接着之前的从零教你设计ROS试验车(1)和从零教你设计ROS试验车(2)。下面给大家介绍一下在此基础上升级之后的ROS试验车,主要开发了机器人的控制程序,并在原来的基础上添加了液晶显示屏 。 升级前的机器人三维模型和实物图 升级后的机器人三维模型和实物图 从零教你设计ROS试验车(2)中的最后部分,我们提到当前这款机器人没有搭载液晶显示屏,并给出了进行数据
上一篇博客我们介绍了ROS试验车的结构设计(三维模型)和部分通讯设计。上篇博客中通讯设计主要介绍了使用ROS系统进行12V10Ah和12V20Ah锂电池的通讯。 我们的目标是设计一套完整的的ROS试验车。有想法当然就要去实现它,耳边一直回响古月居课堂的名言“怕什么真理无穷,进一寸有一寸的欢喜”。 所以 JUST DO IT。下面左图为我们试验车的三维模型设计,右图为试验车实物图。 本篇博客打算介
1、试验车的结构设计 试验车三维结构示意图如图1所示。试验车采用铝合金支架连接,因铝合金质量较轻,不仅可满足试验车最大承重要求,采用支架结构还有利于以后的试验车结构上的扩展。试验车上包含的传感器有:三维激光雷达、惯导、路由器、TX2开发板、双目相机和两块12V锂电池(一块为试验车电机专用,另一块为试验车传感器供电)。 试验采用的三维激光雷达为velodyne-16线激光雷达;惯导为维特智能JY60
tensorflow的CNN minist数据集下载地址 运行结果 代码如下: """ Know more, visit my Python tutorial page: https://morvanzhou.github.io/tutorials/ My Youtube Channel: https://www.youtube.com/us
官方代码: https://github.com/MorvanZhou/Tensorflow-Tutorial/blob/master/tutorial-contents/302_simple_classification.py 训练前自己的数据 训练之后的数据(分类之后的数据) 代码详解 """
基于tensorflow的一元线性回归详细讲解 官方代码: https://github.com/MorvanZhou/Tensorflow-Tutorial/blob/master/tutorial-contents/301_simple_regression.py 根据例子,代码详解请查看代码后面的注释 训练之前自己的数据 &n
运行结果 代码如下: """ Know more, visit my Python tutorial page: https://morvanzhou.github.io/tutorials/ My Youtube Channel: https://www.youtube.com/user/MorvanZhou Dependencies: tensorflow:
tensorflow的dropout 防止过拟合 原文链接:https://github.com/MorvanZhou/Tensorflow-Tutorial 训练前自己的数据 训练之后得到的图形 代码如下: """ Know more, visit my P
tensorflow的RNN(递归神经网络) 运行结果 代码如下: """ Know more, visit my Python tutorial page: https://morvanzhou.github.io/tutorials/ My Youtube Channel: https://www.you
TensorFlow处理数据常用套路 常见术语含义: 全连接层:等价于传统前馈神经网络的隐藏层 dropout:防止发生过拟合 softmax、relu、sigmod:激励函数,协助表达复杂特征
参考文献: http://wiki.ros.org/velodyne/Tutorials/Getting%20Started%20with%20the%20Velodyne%20VLP16 https://blog.csdn.net/zz2862625432/article/details/78112707 https://blog.csdn.net/GroundWalker/a
opencv单独打开摄像头或者打开本地视频请参考:《Python+OpenCV教程3:打开摄像头》 本篇介绍在pyqt中打开摄像头并进行显示,直接上代码吧。 运行环境:windows7,python3.6 效果图: 源码: import time import sys from PyQt5
参考文章:https://www.cnblogs.com/shizhengwen/p/8719062.html 一、读入图像 使用函数cv2.imread(filepath,flags)读入一副图片 filepath:要读入图片的完整路径 flags:读入图片的标志 cv2.IMREAD_COLOR:默认参数,读入一副彩色图片,忽略alpha通道 cv2
将视频按照一定的帧率转化为图片,与PotPlayer进行对比,发现相同的设置,本文代码比PotPlayer保存的图片清晰度高。 代码如下: #-*- coding: utf-8 -*- #使用本程序的方法: #1. 安装python3 #2. 安装numpy, 命令 pip3 install numpy #3. 安装opencv-python
学习打开摄像头捕获照片、播放本地视频、录制视频等。 目标: 打开摄像头并捕获照片 播放本地视频,录制视频 OpenCV函数:cv2.VideoCapture(), cv2.VideoWriter() 教程 打开摄像头 要使用摄像头,需要使用cv2.VideoCapture(0)创建VideoCapture对象,参数:0指的是摄像头的编号。如果你电脑上有两个摄像头的话,访问第2
之前只是简单了解RANSAC模型,知道它是干什么的。然后今天有个课程设计的报告,上去讲了一下RANSAC,感觉这个东西也没那么复杂,所以今天就总结一些RASAC并用Python实现一下直线拟合。 RANSAC简介 RANSAC(RAndom SAmple Consensus,随机采样一致)算法是从一组含有“外点”(outliers)的数据中正确估计数学模型参数的迭代算法。“外点”一般指的的数据
原图像: 深度图像: 额外插图: 将点云数据转化为深度图像(上面点云三维图,下面深度图)不是一一对应关系。 代码: from PIL import Image import numpy as np # import scipy
matplotlib生成三维点云包围盒 运行环境: win10、 python3.5.2、 matplotlib 评价:消耗时间较长 效果展示: 运行上面包围盒消耗的时间:单位(秒/s) 代码: from mpl_toolkits.mplot3d impor
先挖个坑:实现基于python的DFS,BFS 1.前言 在有向图和无向图中,如果节点之间无权值或者权值相等,那么dfs和bfs时常出现在日常算法中。不仅如此,dfs,bfs不仅仅能够解决图论的问题,在其他问题的搜索上也是最基础(但是策略不同)的两种经典算法。 并且五大经典算法的回溯算法其实也是dfs的一种。dfs,bf
效果: 卡顿现象严重,初步显示还行,后期需要寻找其他显示方法 代码: import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D #f=open('point cloud.txt','r') f=open('11D
pointnet训练文件pointnet/sem_seg/train.py注释 原文如下: import argparse import math import h5py import numpy as np import tensorflow as tf import socket import importlib import os import sys
pytorch 利用tensorboard显示loss,acc曲线等 运行环境: python3.6.9 pytorch1.13.1 cuda10.0 cudnn7.5.1 tensorboard显示 运行PointRCNN算法进行training,得出events.out.tfevents.1592297776.hkd-Precision-792
1. IOU(Intersection over Union) -交并比 IOU是一种测量在特定数据集中检测相应物体准确度的一个标准。在PASCAL VOC challenge中经常使用该标准。 一般在 HOG + Linear SVM object detectors 和 Convolutional Neural Network detectors (R-CNN, F
前言: 本文中,主要是关于OpenCV格式图片(或视频帧)和ROS数据格式图片(或视频帧)之间的转换。或者直白点书,通过ROS发送图片(Image)数据类型的消息(message)。 本文其实是为下一篇博文“YOLO在ROS下的使用”打下基础。 1、使用环境和平台 ubuntu 18.04+ python2.7+opencv3 注意:使用python3的话提示报错,还是用python
修正:Ubuntu 18.04+RTX2080Ti建议安装cuda10.0,cudnn7.5.1,pytorch1.4.0+cu100 / torchvision0.5.0+cu100,tensorflow-gpu1.14.0 修正日期:20200611 安装方式与下文描述类似,只要选择上面的版本安装即可 一、安装cuda(准备工作) 1、检查Linux
rosbag既可以指命令行中数据包相关命令,也可以指 c++/pythond的 rosbag 库。这里的 rosbag 是指前者。 rosbag 主要用于记录、回放、分析 rostopic 中的数据。它可以将指定 rostopic 中的数据记录到.bag后缀的数据包中,便于对其中的数据进行离线分析和处理。 对于 subscribe 某个 topi
安装软件源 包安装方法主要有两种:软件源安装和源码编译安装。软件源(Repository)为系统提供了一个庞大的应用程序仓库,只要通过简单的命令即可从仓库中找到需要安装的软件并完成下载安装。相反,源码编译安装相对来说比较复杂,需要手动解决软件的依赖关系。 配置系统软件源 Ubuntu系统允许restricted(不完全的自由软件)、universe(Ubuntu官方不提供支持与补丁,全靠社区
Ubuntu18.04安装ROS的版本为ros-melodic Ubuntu16.04安装ROS的版本为ros-kinetic 下面介绍Ubuntu18.04下安装ros-melodic (跟着步骤,一步一步走) 安装依赖 sudo apt-get update sudo apt-get install git build-e
1、卸載低版本 先查看是否已經安裝cmake cmake --version 如果安裝了,並且版本低,首先進行卸載 sudo apt-get autoremove cmake 如果出現下面錯誤提示,那說明你沒有卸載哦~ CMake Error: Could not find CMAKE_ROOT !!! CMake has most l
运行环境: ubuntu18.04、python3.6、tkinter 运行效果: 开机之后自动打开teminal并执行设定好的程序,进入系统后每次打开terminal都会执行一次设定的程序。 程序功能: 设置提醒,与键盘按键关联,按任意键进行退出该脚本程序。 创建Python脚本:tkinter_time.py ''' import time count
需求:TX2连接Lidar获取点云数据,由于TX2安装在机器人上,不能外接屏幕,内存ROM也很小,所以采用TX2与雷达建立通讯,然后建立TX2和PC机的ROS远程通讯(PC机和TX2都安装ubuntu18.04) PC机和TX2全部为系统为18.04,ROS版本全部为melodic 下面开始部署两台机器 TX2作为主机用于数据采集 PC机
平台:ubuntu18.04、TX2、Python3.6 写在前面 目前经过测试TX2上是带有串口通讯驱动的,我们只需要设置一下即可。本次主要讲解如何使用USB转RS232的串口通讯。 由于USB转RS232可使用不同的芯片,自然包含各种各样的驱动,目前主流大概有3种:CH340、FT232、PL2303 经过测试,TX2板子上直接使用CH340是没有问题的,但是,使用FT232RL工业串
你好,主要程序都已经在文章中列出了,可参考文章中程序即可。
主要程序已经在博客中贴出来了,仅作参考。功能现在还在完善。
你好,验证部分可以参考https://blog.csdn.net/sweetorange_/article/details/111354515
你好,可以留一下邮箱,我用邮箱发你。
您好,暂时无法提供三维模型。请见谅。
结构是实验室做的,可能暂时无法开源
下一阶段应该需要更换小车底盘,硬件也会升级,确定下来之后可以合作哦~
欢迎交流哦~
轮子的控制板采用的是STM32F103,顶层控制程序是别人开发好的。我们是在上位机上进行程序开发,通过上位机与底层控制板进行串口通讯,实现四个轮子转动。
最近在做运动控制这块儿,也是在研究ROS。看你们做的机械臂好有意思啊,希望可以一起学习。
使用vlp-16三维激光雷达进行地图重构,根据重构后的地图,可以获取目标物体的三维尺寸、形状结构等信息;还可以用于定位导航,一般使用NDT即可实现简单的定位导航,也可以和其他传感器进行数据融合提高定位精度。
古月居优秀创作者
人生苦短,我用python
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信