检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李金旺 宋延嵩[2] 刘天赐 赵馨[2] Li Jinwang;Song Yansong;Liu Tianci;Zhao Xin(Graduate School,Changchun University of Technology,Changchun,Jilin 130022,China;College of Electronic Informnation Engineering,Changchun University of Technology,Changchun,Jjilin 130022,China)
机构地区:[1]长春理工大学研究生学院,吉林长春130022 [2]长春理工大学空地激光通信国防重点实验室,吉林长春130022
出 处:《激光与光电子学进展》2020年第10期221-228,共8页Laser & Optoelectronics Progress
基 金:吉林省产业技术研究与开发专项基金(2019C040)。
摘 要:针对海上目标红外图像采集工作中硬件噪声与海面背景杂波带来的影响,以海上无人船视频导航避障系统为背景,对海上红外目标跟踪工作系统噪声进行分析,设计了一种相关去噪算法,完成了系统建模,并对参数进行了改进。然后对海上红外视频进行逐帧采样,对采样所得红外图像序列进行滤波,将滤波前后跟踪位置与目标真实位置的中心坐标进行对比,最后将本文算法处理结果与其他类似算法进行对比。实验结果表明,本文算法滤波后跟踪位置与真实位置基本重合,捕获率高于98%,跟踪误差小于1mrad,相对于类似滤波算法,信噪比提升了10dB。Aiming at the influence of hardware noise and sea background clutter in the infrared images of marine targets,we analyze the noise of offshore infrared target tracking working systems based on the background of an offshore unmanned vehicle video navigation obstacle avoidance system,and design a related denoising algorithm.This algorithm completes the system modeling and improves the parameters.Then,the infrared video at sea is sampled frame by frame,and the sampled infrared image sequence is filtered.The tracking position before and after filtering is compared with the central coordinate of the target real position.Finally,the processing result of this algorithm is compared with other similar algorithms.Experimental results show that using the proposed algorithm,the tracking position after filtering basically coincides with the real position,the capture rate is higher than 98%,and the tracking error is less than 1 mrad.Compared with similar filtering algorithms,the signal-to-noise ratio is improved by 10 dB.
关 键 词:图像处理 红外图像 海上目标 引导滤波 细节增强
分 类 号:TP751[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15