检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]江南大学信息工程学院,无锡214122 [2]南京理工大学计算机系,南京200094
出 处:《中国图象图形学报》2007年第12期2137-2142,共6页Journal of Image and Graphics
基 金:国家自然科学基金项目(60472060);江苏省高校自然科学基金;教育厅自然科学基金项目(03KJB110012;01KJD110005)
摘 要:考虑图像投影鉴别分析问题,为提高特征抽取的速度和识别率,利用图像矩阵直接构造图像散布矩阵,在具有统计不相关的条件下将Foley-Sammon鉴别分析(FSLDA)转化为两目标约束优化问题,并给出了有效投影向量的概念;根据多目标优化的最优性条件可将求取有效投影向量的问题归结为求广义特征方程的最大特征值对应的特征向量,并据此进行特征抽取,进而提出了两目标最优图像投影鉴别分析方法。与其他鉴别投影分析方法相比,该方法具有以下特点:(1)可直接由图像矩阵构建散布矩阵;(2)有效投影向量具有统计不相关性;(3)训练样本的类内散布矩阵不必为可逆的,也不需要求某种形式矩阵的逆。在ORL标准人脸库和NUST603人脸库上的试验结果表明,上述图像投影鉴别分析方法在识别性能上较以往的方法有一定的提高,尤其是特征抽取的速度有明显的提高。This paper addressed the image discriminant analysis problem. By constructing the scattering matrices of the image matrices, Foley-Sammon discriminant analysis (FSLDA) are transformed into a bi-objective optimization problem with uncorrelated constraint for improving the speed of feature extraction and the recognition rate. The efficient projection vector is defined and the efficient projection vector can be obtained from deciding the eigenvector corresponding to the eigenvalue of maximum of a generalized eigen-equation. Compared with the other image projection analysis methods, the proposed method has the following properties: ( 1 ) the scattering matrices are directly based on image matrices; (2) the efficient projection vectors are statistically uncorrelated; (3) the within scattering matrix is not necessarily invertible and some matrix inversions are not performed. Finally, the proposed method is tested on ORL and NUST603 face databases. The experimental results indicate that the recognition performance of the proposed method is prior to the other methods, and its speed for feature extraction is faster than the above methods.
关 键 词:图像投影鉴别分析 图像有效投影向量集 图像特征抽取 多目标最优 最优性条件 人脸识别
分 类 号:TP391.41[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.222