人脸识别技术研究(毕业论文) - 图文

发布时间 : 星期六 文章人脸识别技术研究(毕业论文) - 图文更新完毕开始阅读

线性变换都是寻找这样的砰矩阵,只是因输出y的目标函数的不同,使得不同方法得到不同的变换矩阵。

2.2.2主分量分析方法

主分量分析的目的是在数据空间中找到一组向量以尽可能的解释数据的方差,最终将数据从原来的n维空间降到m维(n>m),降维后仍保存了数据中的主要信息。主分量分析是一种正交变换,在多维数据统计分析中是一个应用广泛的工具。

假设原始向量特征维数为n,即xi=(xi1,xi2,?,xni)T,i=1,2,?,N,要求构造N个新的特征yl,y2,?,yn,并使它们满足以下的条件:

a.每个新特征是原有特征的线性组合,即

(2-4) b. 各个新变量之间是不相关的,即相关系数为零:

c. wi使yi的能量达到极大,i=1,2,?,N

(2-5)

可以证明满足条件的城为样本的协方差矩阵Sx=E{XXT},对应于λi特征值的正交规范化的特征向量ui,满足以上条件的新特征y1,y2,?,yn分别称为样本点的第1,2,?,N个主分量。令W=(ul,u2,?,un)T,且满足正交归一化,即

以对应于Y的协方差矩阵如下式:

(2-6)

经过Y=WTX的变换之后,因为X的协方差矩阵SX为实对称阵必然与一个对角阵相似,所

(2-7)

这就是说,新特征y1,y2, ?,yn两两之间的协方差为零,即它们是不相关的。由于yi也是零均值,每个特征的方差数值E{yi2}在一定意义下反映了它所包含的能量即信息量。由前面叙述可知,所有这些映射矢量作为基向量,便构成主分量分析对应的变换矩阵W={w1,w2,?,wm,?,wn,}T其中前几个基向量wl,w2,?,wm,对应能量占主导地位的几个主分量的映射方向,现将余下的基向量置零,得到W?={wl,w2,?,wm,0,0,?,0}T。利用W?对信号进行近似恢复,得到x?=W?W? Tx。其中W? Tx为所选择的前m个主分量。重构信号的均方误差为E{||x-x?||2}。当选择m个主分量去重构原信号时,由于原信号的维数n>m,所以从信号维数的角度来讲PCA起到了对信号降维的作用。在很多情况下,有效的降维会使得在最大程度保持原信号中所蕴涵的信息的情况下,大大降

15

低运算复杂度。譬如在进行人脸识别应用中,输入的人脸图像的维数往往很高,采用P以方法对其进行特征提取可以降低样本的维数,从而降低计算复杂度,提高了计算速度。 主分量分析是是一种基于统计特征的最佳正交变换,称其为最佳变换是因为它具有优良的性质,使变换后产生的新的分量正交或不相关。主分量分析也是一种最小均方误差(MSE)意义下的最优变换[39]。也就是说,变换后的信号能量主要集中在前几个主分量中,而由这少数几个主分量张成的子空间去重构原信号,逼近效果从最小均方误差意义下是最优的。主分量分析使变换矢量更趋确定,能量更趋集中等,这使得它在特征提取、数据压缩等方面都有着及其重要的作用。

2.3基于主分量分析的人脸识别方法

2.3.1基于主分量分析的人脸特征提取

任何基于统计学习的模式识别系统都包括两个过程,一个是训练阶段(training Process),二是测试阶段(testing process),且两个阶段都需要特征提取,应用CAP的人脸识别系统也不例外。假定在训练阶段,数据库中有K个人,每个人有M幅人脸灰度图像,其中每一幅图像都用NxN的二维数组I(x,y)来表示,数组元素表示象素点的灰度值。同样,每一幅图像都可以视为一个N2xI的向量。因此,它等同于N2维的人脸象素域空间中的一个点。设xij表示一个N2xI的向量来表示数据库中第i个人的第j幅图像(0≤i≤k-1,0≥j≥M-1)然后,定义平均人脸μ如下:

(2-8)

表示了每一幅人脸与平均人脸的差值,它是零均值的。它们组成了一个

N2xMK的矩阵,X=(x00, x01, ?,xK-1,M-1), PCA方法就是要找到对应于矩阵XXT 的前m个较大特征λi 的正交规范化的特征向量μi :

(2-9)

因为XXT 是N2xN2 的矩阵,求它的N2个特征值的计算量非常大。一般而言,训练过程中人脸数据库里的图像数目MxK比人脸空间的维度N2要小,所以我们可以先求得XX见的正交规范化的特征向量城μi?:

T

(2-10)

在式(2-10)两边左乘X,然后与式(2-9)比较,我们可以得到:

16

(2-11)

这些特征向量,称为特征脸,构成了人脸空间的一个子空间的正交基,这个子空间就是通常所说的特征空间。特征空间有训练图像的协方差的特征向量构成,将数据库中的每一幅人脸x从人脸空间转化到特征空间:

(2-12)

既然每一幅人脸都可以用特征空间里的向量y=(w0,wl,?,wm-1)T,利用最近邻法就可以在特征空间里进行人脸识别。在训练阶段,数据库中的所有人脸xij到特征空间为,那么,第i个人在特征空间里的平均向量为:

在测试阶段,给出测试人脸

(2-13) ,首先,将

按照同样的步骤式(2-12)转化到特征。然后,利用最近邻法则将

判定为

空间,得到在特征空间各坐标上的系数向量求得dj最小的一类:

(2-14)

综上所述,基于主分量分析的人脸识别方法的具体步骤如下: a. 初始化,获得人脸图像的训练集并计算特征脸,定义为人脸空间; b. 输入新的人脸图像,将其映射到特征脸空间,得到一组坐标系数; c. 通过检查图像与人脸空间的距离判断它是否为人脸; d. 若为人脸,根据坐标系数判断它是否为数据库中的某个人。

2.3.2基于主分量分析的人脸分类识别

人脸图像被投影到特征空间中后,剩下的任务就是如何利用待识别人脸图像在此特

征子空间的投影系数,实现分类识别了。此任务由两部分构成:一是相似性测量;二是分类器设计。传统的分类识别是基于欧氏距离的最近邻分类方法,实验证明效果并不理想。因为欧氏距离容易受到图像光线、噪声等整体干扰因素的影响。分类器选取与特征提取一样也是模式分类中的一个重要环节,不同的分类器对不同特征空间的分类效果优劣相差很大。本文采用两个坐标向量夹角的余弦值作为相似测度以及采用SVM分类器。实验证明比传统的基于欧氏距离的最近邻法效果好。具体方法如下。 相似性测量 假设

为待测试人脸图像的PCA系数向量,即PCA特征,

为训练人脸库中的

17

样本特征,二者欧氏距离计算公式如下:

(2-15)

其中n为特征向量的维数。

相应的的角度距离(Cosine istnaee)如下式:

分类器设计

(2-16)

分类器的功能是先计算出c判别函数gj(x),再从中选出对应判别函数最大值的类作为结果。分类器的核心是预先定义的判别函数,根据其判别函数定义的不同可分为基于距离的分类器(如最近邻法)、基于概率的分类器和基于智能方法的分类器(如SVM)。另外,根据分类器的输出结果的多少,大致可分为两类分类器和多类分类器。多类分类器可由两类分类器按某种策略组合而成。

最近邻分类器是由Cover和Hart于1968年提出的[40],至今仍是模式识别非参数法中最重要的方法之一。假定有c模式类别{ωi,i=1,2,?,c}每类有标明类别的Ni 个样本xji(i=1,2, ?, Ni)。类的判别函数定义为:

(2-17)

其中xik 的角标i表示ωi类,k表示ωi类Ni个样本中的第k个。按照式(2-17),决策规则可以写为,若

(2-18)

则决策x∈ωj 。这一决策方法称为最近邻法(Nearest neighbor)。其直观解释是相当简单的,就是说对未知样本x1 只要比较x与个未知类别的样本之间的欧氏距离或者角度距离,并决策:为与离它最近的样本同类。此方法三直接基于模式样本建立判决函数的方法。

支持向量机(Support Vecor Machuines,SVM) 源于统计学习理论,它使用结构风险最小化(RSM)原理构造决策超平面使每一类数据之间的分类间隔最大。SMV是从线性可分情况下的最优分类面(Optimal HypePrlnae) 提出的。最优分类面要求分类面不仅能将两类无误的分开,而且要求两类的分类空隙最大。前者是保证经验风险最小,而后者的作用是使推广性的界中的置信范围最小,从而使实际风险最小。

对于非线性分类,首先使用一非线性映射?把数据从原空间X映射到高维特征空间Z,使数据在高维空间线性可分,从而可以在特征空间Z上建立最优分类面。高维特征空

18

联系合同范文客服:xxxxx#qq.com(#替换为@)