检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]北京信息科技大学自动化学院,北京100192
出 处:《北京信息科技大学学报(自然科学版)》2014年第2期59-65,共7页Journal of Beijing Information Science and Technology University
基 金:北京信息科技大学2013年度教学改革立项资助(2012JGYB15);北京市属高等学校人才强教深化计划资助项目(PHR201106131);2013年度北京信息科技大学大学生科技创新项目(3ZD08)
摘 要:提出一种用于行人目标检测的视觉注意模型化计算方法。在提取行人目标显著表象特征的基础上,通过多尺度分解后,各尺度图像之间的差减与归一化运算构成显著图;同时,根据肤色高斯似然计算模型,提取行人目标特有的皮肤颜色特征图,再通过分块图像中分类像素点累计计数与阈值化均值滤波相结合的方法精化肤色提取结果以构成导引图;进而提出一种将显著图与导引图通过有偏置的加权整合策略实现目标区域的准确预测。通过Penn-Fudan行人数据库和实拍视频的实验结果表明,所提方法的检测准确率优于现有其他计算模型,且相对传统目标检测算法,能够大幅度减少时间开销,提高检测效率。A pedestrian detection method is proposed based on the modeling computation oI visual attention. First, a saliency map is generated through multi-scale center-surround computation and normalization, based on extraction of saliency feature of pedestrian object. Meanwhile, a skin color feature map is computed based on the skin color Gaussian model to express the unique character of pedestrian object. A guided map is achieved through refining the skin color features by implementing accumulation of specific pixel for every block and threshold average filtering. Moreover, the objective area prediction is completed by offset weighted of saliency map and guided map. Experimental results on Penn-Fudan pedestrian database and real videos show that the proposed computational model outperforms other existing models in terms of detection precision. Compared with traditional object detection method, the proposed method can save time drastically and improve detection efficiency.
关 键 词:视觉注意模型化计算 行人目标检测 显著图像 导引图像 信息融合
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.28