很久以前看吴恩达老师的视频和西瓜书时用jupyter写的,今天想起来就把它转到这里 图像识别、目标检测、风格迁移 人脸识别 人脸验证(face verification)和人脸识别(face recognition)的区别:人脸验证:输入一张人脸图片,验证输出与模板是否为同一人,即一对一问题。人脸识别:输入一张人脸图片,验证输出是否为K个模板中的某一个,即一对多问题。 One Shot Learn
很久以前看吴恩达老师的视频和西瓜书时用jupyter写的,今天想起来就把它转到这里,真的挺方便。 图像识别、目标检测、风格迁移 目标检测 标准的CNN分类模型,经过CONV卷积层后,Softmax层输出4 x 1向量: from IPython.display import Image libo="C:/Users/libo/Desktop/machine learning/卷积神经网络/CNN图
很久以前看吴恩达老师的视频和西瓜书时用jupyter写的,今天想起来就把它转到这里,真的挺方便。 图像识别、目标检测、风格迁移实例研究CNN经典模型:LeNet-5AlexNetVGGResNet LeNet-5:第一个成功应用于数字识别的卷积神经网络。典型的LeNet-5结构包含CONV layer,POOLlayer和FC layer,顺序一般是CONV layer->POOL laye
图像识别、目标检测、风格迁移 参考:https://blog.csdn.net/red_stone1/article/details/78651063 图像识别 卷积解决的问题:传统神经网络输入维度太大,导致网络结构太复杂,数据量相对不够,则出现过拟合,以及计算量太大。 每一张图片都是由3层(RGB)n ∗
SLAM:同时定位和建图(Simultaneous Localization and Mapping)。 机器人从未知环境中的未知地点出发,在运动过程中通过重复观测到的地图特征(比如,墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目的。 一般传感器:激光雷达,相机(单目,双目,RGBD,事件)
SLAM:同时定位和建图(Simultaneous Localization and Mapping)。 希望机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的地图特征(比如,墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目的。 所用传感器:激光雷达,相机(单目,双目,RGBD
在上一讲中我们介绍了视觉SLAM十四讲的前3讲:基本框架和刚体运动的描述方式(R矩阵,T矩阵)。 面临的问题: 当我们对刚体的运动进行表示了之后,接下来要解决的问题是对得到的表示进行估计和优化。因为在 SLAM 中位姿是未知的,而我们需要解决什么样的相机位姿最符合当前观测数据这样的问题。一种典型的方式是把它构建成一个优化问题,求解最优的 R; t,使得误差最小化。
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信