接着上次的《活体检测Face anti-spoofing综述》,再来讲讲arXiv上新挂的文章: 京东金融和中科院联合发表的“Exploiting temporal and depth information for multi-frame face anti-spoofing”[1] 它的主要创新和贡献是: 利用了多帧的时空信息来更精准地预测深度图,再而进行活体检测 --------------
什么是rPPG? 远程光电体积描记术 Remote Photoplethysmography (rPPG) 利用反射的周围光来测量皮肤的细微亮度变化。皮肤的细微亮度变化是由于心脏跳动导致的血液流动导致的。一般通过rPPG 我们可以得到类似 BVP 的信号,通过此信号可以预测心率,呼吸率等各种vital sign,在 healthcare 领域应用广泛。 为什么 rPPG 能用在人脸活体检测? 如下
Low-level vision task 低级视觉任务:image2image, video2video 等等。 High-level vision task 高级视觉任务:检测,识别,分割 等等。 图1. 低级去噪任务+高级语义分割任务 那么一般在什么应用场景会结合使用呢?比如做低质量人像识别,可通过low-level model得到较高质量的人像,再进行 high-level识别(然而
最近看了两篇 Video-based 的 ReID 文章,做下笔记简单对比下: 第一篇CVPR2018 [1]:先对每帧的深度特征进行 空间Attention,让网络自主发现对分类任务更有帮助的人体parts;然后对每Part各自进行多帧 时间Attention,让网络自动评价每帧中的parts特征的质量好坏(如下图最后一行 SK,网络关注的part=黑色小包包区域,对于第1帧,全被遮挡,质量权值
看了下今年CVPR,正会有4篇face anti-spoofing的文章,里面有三篇都制作了新的数据集,给人感觉真是没新数据集都不敢撸了~~ [1] CASIA-SURF,中科院和京东的文章,发布了多模态数据集(RGB+Depth+NIR),并搞了个基于SE block 多模态融合的baseline;并搞了对应的workshop比赛,一下子就被刷爆了,恐怕这集废了,后面可以follow下比赛前几名
本文主要介绍由Oulu大学主导的几个差分卷积(Difference Convolution)工作及其在图像、视频领域中的应用。 相关工作已被 TPAMI, TIP, CVPR'20, ICCV'21 (Oral), IJCAI'21 等顶级期刊会议接收,并斩获两项国际大赛冠亚军(1st Place in the ChaLearn multi-modal face anti-spoofing att
什么是运动放大(Motion Magnification)? 将视频中对应位置的运动进行放大,简单理解的话,就是找到时间段内的运动矢量,进行放大,然后权值叠加回去。 为什么需要运动放大? 因为很多自然界或者生物的 subtle behaviour 不易被肉眼察觉(如飞机翼的震动,受风影响摇晃的建筑,生物皮肤变化等等),这些微变化只有通过运动放大,才能更好地被机器或者人类来做后续的视频视觉
什么是行人重识别 Person Re-identification(ReID)? 如下图,给定一个行人图或行人视频作为查询query,在大规模底库中找出与其最相近的同一ID的行人图或行人视频。 为什么需要ReID 呢? 因为在安防场景下,跟踪一个目标,只靠人脸识别是不够的,在脸部信息丢失时(罪犯有时把脸特意蒙住一大部分,或者离太远了拍不清脸),行人信息就能辅助跟踪识别。 ReID
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信