地址为https://zhuanlan.zhihu.com/p/570283411、引言传感器标定是自动驾驶的基本需求,一个车上装了多个/多种传感器,而它们之间的坐标关系是需要确定的。湾区自动驾驶创业公司ZooX的co-founder和CTO是Sebastia Thrun的学生Jesse Levinson,他的博士论文就是传感器标定。这个工作可分成两部分:内参标定和外参标定,内参是决定传感器内部的
1 引言 小博在前两次已经介绍过ROS的安装使用以及基础的基础知识了,我的研究方向是计算机视觉,所以我的大部分文章基本都是视觉.所以本节将结合视觉和ROS写一篇博客,来为大家详细讲解一下,并附上教程. 通常我们在机器人项目中都会涉及到进程间通讯,亦或是好多人老是问我python 怎么调用C++,其实我认为他很有可能是遇到了进程间通讯的问题,或是图像检测使用python做的,无法将检测到的结果发给
2020年得第一篇博客,真是好长时间没发博客,这半年里毕业到一家v2x公司之后比较忙,不发博客内心是比较着急,总觉得没记录点啥。年底了,写点东西吧,不然csdn恐怕要取消我博客专家的评级了。 接下俩我分两章介绍一下文章,小编手里有两个传感器,6个激光雷达与摄像头,还有一个微波摄像头,分别装在一个路口的不同地方,需要将这些传感器进行融合输出目标列表。如图: 安装如图: 第一篇讲解如何进行通信,后
我先上下结果图吧,效果勉强还行,在这里我只训练了行人,官网的weights是coco数据集训练的,有80类; 1、YOLOV3目标检测 关于yolov3的原理我在这里就不解释了,可谷歌学术自行阅读,说实话yolov3的效果着实不错,但是源码是C的,不依赖其他任何库,看的云里雾里,在这里我用的darknet训练的,利用tensorflow+keras进行测试的; 关于tensorflow+ke
环境:ubuntu14.04 软件:opencv3.3 +pycharm 好久没有写博客了,手都感觉好生疏,最近一直在研究工控机,水下机器人等,好不容易闲下来,没办法呀,继续前行吧,前面一直说双目测距,但没有高速大家如何获得这个双目标注得图像,我在这把这代码贴一下吧,获得这些双目拍摄的图片就可以利用matlab和opencv进行标注了。 小编查了网上好多代码,在利用双目摄像头i实现拍照
在我们平常在做目标检测或者目标追踪时,经常要画出目标的运动轨迹图,基本大致思路如下,检测出目标,建立一个空的队列,检测出目标就将目标的中心点给加到队列中。最后写一个循环,调用opencv cv2.line函数画出上一帧与这一帧的轨迹图,我们线看下效果吧(小编不上相) 我做了一个人脸检测,并记录了人脸的中心的运动轨迹,下面我们贴出代码吧,人脸检测我就不解释了,大家可以参考我的另一篇博客,htt
利用python打开摄像头及颜色检测 最近两周由于忙于个人项目,一直未发言了,实在是太荒凉了。。。。,上周由于项目,见到Python的应用极为广泛,用起来也特别顺手,于是小编也开始着手学习Python,…下面我就汇报下今天的学习成果吧 小编运行环境unbuntu 14.0.4 首先我们先安装一下Python呗,我用的2.7,其实特别简单,一行指
检测或者训练有问题的可发邮件咨询小编,小编尽力解答1039463596@qq.com 好吧,正式开始跑程序(其实官网都有) 这篇文章是训练YOLO v2过程中的经验总结,我使用YOLO v2训练一组自己的数据,训练后的model,在阈值为.25的情况下,Recall值是95.54%,Precision 是97.27%。 需要注意的是,这一训练过程可能只对我自己的训练集有效,因为我是根据我这一
前言 前段时间说到小编手里有两个传感器,6个激光雷达与摄像头,还有一个微波摄像头,分别装在一个路口的不同地方,需要将这些传感器进行融合输出目标列表。但是要做到融合首先第一步就是标定,做空间同步,第二是时间同步。 接下来我以激光雷达与摄像头为例,其中激光雷达首先需要做目标检测,多目标追踪输出的为目标结构化数据(此知识算法不在此处延申,大家可查查激光
代码是最为耐心、最能忍耐和最令人愉快的伙伴,在任何艰难困苦的时刻,它都不会抛弃你(开场白) 长时间不写博客,我总感觉自己没有做事情,最近一直在做目标检测,想结合一下双目视觉,做立体检测,于是就研究了一下双目视觉,参考了很多人的相关博客,在这里,特意表示感谢一下。 使用Opencv实现张正友法相机标定之前,有几个问题事先要确认一下,那就是相机为什么需要标定,标定需要的输入和输出分别是哪些?
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信