基于最大后验概率的单视频时间超分辨率重建算法  被引量:3

Single video temporal super-resolution reconstruction algorithm based on maximum a posterior

在线阅读下载全文

作  者:郭黎[1] 廖宇[1] 陈为龙[2] 廖红华[1] 李军[1] 向军[1] 

机构地区:[1]湖北民族学院信息工程学院,湖北恩施445000 [2]四川师范大学数字媒体学院,成都610068

出  处:《计算机应用》2014年第12期3580-3584,共5页journal of Computer Applications

基  金:国家自然科学基金资助项目(61263030;61362012);国家文化科技提升计划(201307);文化部创新项目(201217);湖北省自然科学基金资助项目(2012FFC02601;2011cdb088;2014CFB612);湖北省教育厅优秀中青年人才项目(Q20111907)

摘  要:任何视频摄像设备均具有一定的时间分辨率限制,时间分辨率不足会造成视频中存在运动模糊和运动混叠现象。针对这一问题常用的解决方法是空间去模糊和时间插值,然而这些方法无法从根本上解决问题。提出一种基于最大后验概率(MAP)的单视频时间超分辨率重建方法,该方法通过重建约束来确定条件概率模型,然后利用视频自身具有的时间自相似先验信息得到先验信息模型,最后求得基于最大后验概率的估计值,即通过对单个低时间分辨率视频重建来得到高时间分辨率视频,从而有效解决由于相机曝光时间过长所造成的"运动模糊"和相机帧率不足引起的"运动混叠"现象。通过理论分析与实验,证明了所提方法的有效性。Any video camera equipment has certain temporal resolution, so it will cause motion blur and motion aliasing in captured video sequence. Spatial deblurring and temporal interpolation are usually adopted to solve this problem, but these methods can not solve it completely in origin. A temporal super-resolution reconstruction method based on Maximum A Posterior (MAP) probability estimation for single-video was proposed in this paper. The conditional probability model was determined in this method by reconstruction constraint, and then prior information model was established by combining temporal self-similarity in video itself. From these two models, estimation of maximum posteriori was obtained, namely reconstructed a high temporal resolution video through a single low temporal resolution video, so as to effectively remove motion blur for too long exposure time and motion aliasing for inadequate camera frame-rate. Through theoretical analysis and experiments, the validity of the proposed method is proved to be effective and efficient.

关 键 词:最大后验 超分辨率 单视频 时间重建 

分 类 号:TP391.9[自动化与计算机技术—计算机应用技术] TN911.73[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象