训练神经网络,控制固定翼飞机的运动,完成着陆过程的飞行。 强化学习算法为DDPG,网络为3层,其中输入层和1、2层均设置BatchNorm,每层64个neural。 仿真平台为Gazebo,模型基于ethz-asl/rotors_simulator,飞机质量、惯量与重心恒定,气动参数与推力均采用二阶多项式近似,For example, 'c_drag_alpha: [n_0, n_
这好像是第一次公开的PX4开发者会议,由PX4的创始人主持会议(与会者基本都是欧洲人),议题主要涉及PX4的一些最新进展,视频地址: https://www.youtube.com/watch?v=K-F2pqv_PGQ&list=PLYy2pGCdhu7yr-kGBRuvIAOO2xa61shsB&index=1&spfreload=10www.youtube.com
几个程序包括 CS294-112(fall 2017)的homework2: berkeleydeeprlcourse/homeworkgithub.com/berkeleydeeprlcourse/homework 基于ETHZ ASL实验室rotors_simulator程序的deep-reinforcement-learning-drone-control: tobiasfshr/
因为曾经顺利地装好过一个台式机,所以在装笔记本之前并没有想到我会在这个坑里挣扎一周多。 Linux装各种软件依赖经常需要各种试错,有时甚至被逼划出树形图来整理思路……网友们给出的解决方案有时候只适用于他的软硬件环境,搞定了问题后好心和大家分享,但其最后编译成功不代表总结没有错误。 本人配置如下: 硬件:惠普OMEN系列暗影精灵4笔记本,主板芯片型号Intel HM370,显卡型号Geforce
1.总图 为了强化基本功,决定看YOLO的源代码,看起来之后发现这真是个坑…… 主要参考资料见https://github.com/hgpvision/darknet,作者给出了darknet部分函数的详细中文注释。注释背后体现了作者专注而踏实的作风,向这位老师致敬! 由于能力有限,本人难以完成与hgpvision类似的代码注解,于是退一步,绘制了darknet代码主要函数的关系图,并且对每个函数
基于地面站上的深度学习软硬件,实现室外飞行无人机对目标的识别与跟踪。 一、系统框架 卷积神经网络是YOLOv3 : YOLO: Real-Time Object Detectionpjreddie.com/darknet/yolo/ 操纵系统Ubuntu16.04; GPU为一块NVIDIA GeForce GTX 1080Ti; 程序调用DroneKit DroneKit by 3D
花了大概三个月时间,上手了四旋翼,今天做一个零散的总结: 1.开源飞控 想要得到大飞机的平台资源没那么容易,所以只能从小飞机下手。麻雀虽小五脏俱全,进而能把想要验证的事情做出来。 起初摆在眼前的选择基本就是两个:开源飞控Ardupilot,或者大疆。如果检索哈工大等院校关于四旋翼的学术论文,基本集中在这两个平台。 然而至今都没真正着手研究大疆的东西,只是了解了一些关于大疆SDK的新闻:不同
这里的“目标跟踪”并非目标跟踪算法,而是指基于目标识别算法,我的云台相机能够通过Pan-Tilt-Zoom运动锁定目标。或许为了区别,应该叫目标追踪。 基本原理如下图所示: 其中串口线、云台像机、视频采集卡都是成熟产品,在某宝或某东上很容易买到。 影响云台相机价钱的一个重要指标是光学变焦倍数,我选择了20倍光学变焦的基本满足需求。另外国产水货比品牌原装便宜很多。 目标识别算法是YOLOv
1. 首先是对OpenCV(版本3.4.3)包含的几个目标跟踪算法做了下对比: 视频见原文: 02-cv2.Tracker实测 - 知乎 (zhihu.com) 对上面的小视频,用鼠标以不同大小的矩形框圈定小车作为Tracking初始范围,并且给某些大的矩形框设定偏置使得小车不在其中心位置。并且视频后半部分小车会与小白发生轻微的交叉。几种算法在同一台电脑上的对比结果如
从对“机器学习”、“深度学习”一无所知,到现在能够自己制作样本训练网络,感觉已经算是入门了。这三个月时间先后学习了吴恩达的Deeplearning.ai课程、斯坦福李飞飞的CS231n课程、台湾大学李宏毅的MachineLearning课程和DeepLearning“花书”的一部分。后者在理论层面的阐述能够让人对机器学习有更深刻的认识,但是较为晦涩难懂,应该算是通往高水平的进阶之路吧。所以本文只针
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信