参考:https://github.com/juandes/pikachu-detection/blob/master/detection_video.py 在之前的文章中,实现了利用tensorflow的目标检测API训练模型,并用图片来验证模型的有效性。本文的目的是为了将模型应用在视频检测中,实现视频流的实时检测。 ---------------------------------------
参考:https://blog.csdn.net/u010099080/article/details/77426577 在使用tensorflow训练神经网络之后,可以输出训练日志,然后用tensorboard打开进行可视化,本文目的是整理tensorboard的使用方法以及里边曲线的含义。 1 运行过程 添加记录节点:tf.summary.scalar/image/histogram()等 汇
在《TensorFlow之目标检测API接口调试(超详细)》文章中,介绍了tensorflow API接口调用方法,详细描述了训练的过程,训练的时候用了单GPU训练,tensorflow是支持多GPU训练的,因此,介绍一下多GPU训练的方法。 很简单,只需要修改两个地方: 第一个参数是train.py文件,找到以下参数 flags.DEFINE_integer('num_clones',
用tensorflow训练模型时,很自然的想到要同时验证模型的效果,得到mAP、loss等参数,从而判断什么时候可以终止训练,防止欠拟合或者过拟合。幸运的是,tensorflow官方 已经给出了验证的脚本eval.py,网上找了很多资料,都没有人能把使用方法讲清楚,因此在研究的基础上做一个总结。本文是基于目标检测API接口object_detection做进一步的 分析,如果对这些接口不熟悉的,可
最近nvidia官网发布了专门针对tx2的tensorflow-gpu安装包,这样将TX2上部署tensorflow的难度大大降低,只需几个步骤即可。 1 刷机jetpack3.3 首先TX2必须是3.3版本的jetpack,因为截止目前nvidia发布的tensorflow只支持3.3版本的jetpack,如图所示,日后如果有更新了可以刷其它版本的,所以第一步就是给TX2刷机。具体的刷机方法
参考:https://github.com/jkjung-avt/tf_trt_models/tree/tf-1.8 在之前的文章中,详细介绍了tensorflow目标检测接口的使用方法,包括训练与推理流程,该工作主要是在服务器端完成的,而我们实际应用的时候,推理不一定发生在服务器上,而可能是TX2等终端设备,因此,在TX2上进行模型的推理加速,对于实际应用很有必要。 幸运的是,nvidia已经针
参考:https://arleyzhang.github.io/articles/7f4b25ce/ 1 什么是TensorRT 一般的深度学习项目,训练时为了加快速度,会使用多GPU分布式训练。但在部署推理时,为了降低成本,往往使用单个GPU机器甚至嵌入式平台(比如 NVIDIA Jetson)进行部署,部署端也要有与训练时相同的深度学习环境,如caf
注意:本文下载的tensoflow/model版本比较旧,是18年的版本,现在github上有更新,对代码和文件结构进行了一定的优化,因此下文的流程使用起来可能会与最新版本有所差异,大家要根据官方介绍灵活设置 1 源代码测试 1.1 环境配置 环境:tensorflow-gpu:1.9(注意要选择1.9的版本,测试过1.7版本的在最后一步模型转化时会有问题),python3.6 下载git
首先了解在导航堆中,move_base包与其它包(如amcl、map_server)的关系,如图所示 在move_base节点运行前需要四个配置文件,这些文件定义了一系列相关参数,包括越过障碍物的代价、机器人的半径、路径规划时需要考虑未来多长的路、我们想让机器人以多块的速度移动等等。这四个配置文件分别是: base_local_planner_params.yaml cos
在用机器人和激光雷达跑SLAM算法构建地图时,总感觉激光雷达数据在RVIZ中显示的方向有问题(前提是激光雷达的安装方向正确),知道是tf坐标转换存在问题,但一直没有调整到好的状态,所以查了些相关资料,终于搞明白了ROS中的坐标转换是怎么回事,于是记录下来。 一、首先要搞明白URDF、TF和odom的关系 ROS 中对于多坐标系的处理是使用树型表示,在机器
参考:http://wiki.ros.org/cn/ROS/Tutorials/CreatingMsgAndSrv 参考:http://wiki.ros.org/cn/ROS/Tutorials/WritingServiceClient%28c%2B%2B%29 要注意在ROS中有catkin和rosbuild两种创建程序包的方法,关于catkin与rosbuild的区别,可参考博客http:
0 背景 我们使用ROS开发时,希望当机器人上电以后,会自动启动一些传感器的驱动文件,定位导航,建图所需要的文件,并能按照我们的设定实现一定的功能,比如相应客户端的命令,并按照客户端的指令来动作,或者开机以后,自动对所在的环境进行建图和导航等。我们需要进行开机自启动的设置。本文即介绍机器人开机自启动的方法和步骤 目前关于机器人开机自启动的设置大体上有
参考:http://wiki.ros.org/ROS/Tutorials/WritingPublisherSubscriber(python) 1 编写Publisher节点 节点是连接到ROS网络的可执行文件的ROS术语。在这里,我们创建一个不断广播消息的发布者(“talker”)节点。创建一个ros包,也可以用现有的ros包,比如:  
第一步:TX2安装ROS kinetic http://www.ncnynl.com/archives/201706/1750.html 第二步:安装激光雷达驱动(测试过rplidar、F4) 首先必须给TX2编译内核,才可读取出雷达,编译方法参考 http://m.blog.csdn.net/gzj2013/artic
参考:http://wiki.ros.org/actionlib/DetailedDescription setAccepted - After inspecting a goal, decide to start processing it setAccepted - 检查目标后,决定开始处理 setRej
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信