博客
关于我
ECCV18 Oral | MIT&谷歌视频运动放大让计算机辅助人眼“明察秋毫”
阅读量:106 次
发布时间:2019-02-26

本文共 939 字,大约阅读时间需要 3 分钟。

出处“来自微信公众号:我爱计算机视觉”

ECCV18 Oral | MIT&谷歌视频运动放大让计算机辅助人眼“明察秋毫”

原文:

本文来自ECCV 2018 选为Oral的论文《Learning-based Video Motion Magnification》,代码已开源,作者信息:

(欢迎关注“我爱计算机视觉”公众号,一个有价值有深度的公众号~)

什么是视频运动放大技术?
视频运动放大技术是一种从视频到视频的滤波处理,可以使我们能够看到在视频中肉眼看不到的小的运动,例如振动飞机机翼的动作,或者在风的影响下摇摆的建筑物等。这在衡量建筑物的结构健康程度和医疗环境中人体生命信号检测中有非常重要的应用。
由于这种运动往往很小,因此放大后的效果容易产生噪音或过度模糊。现有技术使用手工设计的滤波器来提取运动表示,往往不是最佳的。

在本文中,试图直接使用深度卷积神经网络从已有样本中学习滤波器。为了方便训练,该文仔细设计了一个人工合成的数据集,该数据集可以很好地捕捉视频中小的运动,用两帧图像作为输入就可以训练。
本文是第一个使用卷积神经网络在人工合成数据上学习运动放大滤波器的工作,实验证明经过学习得到的过滤器在真实视频上与之前的方法相比获得更高质量的视觉效果,明显减少了振铃伪像和噪声放大。

 

上图中原始视频的局部区域被截取出来,红色代表的是被放大的采样区域,波浪条纹代表着被放大的运动,原始图像看不出运动,中间的能看出波浪状的变形但有很明显的伪影,而右边使用本文方法的结果不仅波浪状变形被发现而且大大减少了伪影。
这是一个高速运动物体的例子,请看原始帧红色采样区域(请注意它非物体运动区域,不应该有运动)对应的算法处理结果,之前的方法出现了明显的伪影,而该文的方法则较好的保留了静止状态。

网络架构

数据合成方法

使用MSCOCO数据集中的200000幅图像做前景,使用PASCAL VOC数据集中7000个分割出的目标做背景,按照一定的运动系数、尺度系数等直接合成运动模拟图像。

处理结果示例:

论文:

https://arxiv.org/abs/1804.02684

代码已经开源:

https://github.com/12dmodel/deep_motion_mag

转载地址:http://uopz.baihongyu.com/

你可能感兴趣的文章
MySQL:判断逗号分隔的字符串中是否包含某个字符串
查看>>
MySQL:某个ip连接mysql失败次数过多,导致ip锁定
查看>>
MySQL:索引失效场景总结
查看>>
Mysql:避免重复的插入数据方法汇总
查看>>
MyS中的IF
查看>>
M_Map工具箱简介及地理图形绘制
查看>>
m_Orchestrate learning system---二十二、html代码如何变的容易
查看>>
M×N 形状 numpy.ndarray 的滑动窗口
查看>>
m个苹果放入n个盘子问题
查看>>
n = 3 , while n , continue
查看>>
n 叉树后序遍历转换为链表问题的深入探讨
查看>>
N!
查看>>
N-Gram的基本原理
查看>>
n1 c语言程序,全国青少年软件编程等级考试C语言经典程序题10道七
查看>>
Nacos Client常用配置
查看>>
nacos config
查看>>
Nacos Config--服务配置
查看>>
Nacos Derby 远程命令执行漏洞(QVD-2024-26473)
查看>>
Nacos 与 Eureka、Zookeeper 和 Consul 等其他注册中心的区别
查看>>
Nacos 单机集群搭建及常用生产环境配置 | Spring Cloud 3
查看>>