模式识别习题及答案

发布时间 : 星期一 文章模式识别习题及答案更新完毕开始阅读

权向量 w?Sw(m1?m2)11.叙述Fisher算法的基本原理。

Fisher准则的基本原理:找到一个最合适的投影轴,使两类样本在该轴上投影之间的距离尽可能远,而每一类样本的投影尽可能紧凑,从而使分类效果为最佳。 12

*?113.已知两类问题的样本集中,有两个样本。

1Tx?(1,2,?3)属于w1类, 2 属于w2类,对它们进行增广规范化后,这两个样本的

规范化增广样本分别为y1=(1,1,-3,2)转置和y2=(1,-1,-2,3)转置。 14.叙述感知准则的梯度下降算法的基本过程。 答:1. 初值: 任意给定一向量初始值a(1)

2. 迭代: 第k+1次迭代时的权向量a(k+1)等于第k次的权向量a(k)加上被错分类的所有 样本之和与pk的乘积

3. 终止: 对所有样本正确分类

x?(1,?3,2)T

15感知准则函数

JP(a)?y?Yk?(?aTy)16线性判别函数g(x)的几何表示是:点x到决策面H的(距离的代数度量)

17.感知机方法主要有两种,批量样本修正法与单样本修正法。它们之间的区别是什么? 答 单样本修正法:样本集视为不断重复出现的序列,逐个样本检查,修正权向量

批量样本修正法:样本成批或全部检查后,修正权向量 18.感知准则特点是随意确定权向量(初始值),在对样本分类训练过程中(逐步修正)权向量直至最终确定。

T?19.对于感知准则函数,满足( a y 0 )的权向量称为解向量,解向量不止一个,

而是由无穷多个解向量组成的解,称这样的区域为(解区域) 。

T20.感知准则函数为 J(a)?极小值时的a为最优解 (?ay)P y?Yk证明使用梯度下降算法的迭代过程公式 a(1),任意??

?a(k?1)?a(k)?ky

?y?Yk ??Jp(a)证明: ?J(a)? (?y)?p?a y?Yk

kpk

y?Yk

????a(k?1)?a(k)???J(a)?a(k)???y21.下列哪种分类方法最不适用于样本集线性不可分情况:B

A.Fisher线性判别的Lagrange乘子法 B.感知准则的梯度下降算法 C.最小错分样本数准则的共轭梯度法 D.最小平方误差准则的梯度下降法

22.多类问题可以利用求两类问题的方法来求解。这样做的缺点是会造成(无法确定类别的区域增大),需要训练的(子分类器及参数增多)。

23.利用最小平方误差准则函数进行分类器设计,主要是求极小化时的权向量。当 时,最小平方误差准则函数的解等价于(Bayes)线性判别的解。 24.叙述分类器错误率估计中的留一法的运算过程。

答:1.N个样本,取N-1个样本作为训练集,设计分类器。

2.剩下的一个样本作为测试集,输入到分类器中,检验是否错分。

3.然后放回样本,重复上述过程,直到N次,即每个样本都做了一次测试。

k4.统计被错分的次数k, ? ? ? 作为错误率的估计率。

N25利用两类问题的线性分类器解决多类问题常用的两种方法的优缺点。 答:优点:设计思想简单,容易实现。

缺点:(1)需要训练的子分类器或参数多,效率低。 (2)无法确定类别的区域多。【造成该问题的根本原因是将多类问题看成了多个 两类问题来解决。这样必然造成阴影区域的出现。解决办法用多类问题的分类器】

26线性分类器设计中的最小平方准则函数方法采用的准则函数公式是什么?当利用伪逆解方法求解时,遇到计算量过大时,可以代替采用何种方法来训练分类器参数?叙述你所使用方法的基本原理,并解释为什么你的方法可以降低计算量。 N22答:因为e=Ya-b, s(a)?e? Ya?b TJi 常用梯度下降法来降低计算复杂度 i?1N TT?J(a)?2(ay?b)y?2Y(Ya?b)siii

b?(1,...,1)T?2(ay?b)?i?i?1a(1),任意初始化?批量样本修正法: ?Ta(k?1)?a(k)??Y(Ya(k)?b)k?

单样本修正法:

Tkk kk

27利用两类别的线性分类器如何解决多类别的分类问题?

ωi/~ωi 法:将C类别问题化为(C-1)个两类(第i类与所有非i类)问题,按两类问题确定其判别函数与决策面方程 ωi/ωj 法:将C类中的每两类别单独设计其线性判别函数,因此总共有C(C-1)/2个线性判别函数

28.叙述分类器错误率估计中的m-重交叉验证方法的运算过程,并说明什么情况下该方法将退化为留一法。

a(1),任意初始化???a(k?1)?a(k)??(b?a(k)y)y答:(1)N个样本被划分成m个不相交的集合,每组有Nm个样本。

(2)在m个样本中取m-1个组的样本作为训练集,设计分类器。

(3)剩下的一组样本作为测试集,输入到分类器中检验,统计错分数k. (4)然后放回,重复上述过程,直到m次。 (5)设ki(i=1,…,m)是第i次测试的错分数,则 ki1m1m???ki

mN/mNi?1i?1

当m=N时,退化为留一法。 第五章 近邻法 近邻法性能 优点:

(1)设计简单 (2)分类性能优良

(3)适用于线性不可分情况 缺点:

(1)计算量大,存储量大

第六章 特征的选择与提取

1.叙述用于特征选择的增l减r搜索算法的算法步骤。并考虑l值大于(或小于)r值时,增l减r算法步骤应做出怎样的修改,以及该情况下,增l减r搜索算法的特点?

答步骤一:用SFS法在未入选特征组中逐个选入L个特征,形成新特征组Xk+L ,设置k=k+L,步骤二:用SBS法从特征组Xk中逐个剔除r个最差的特征,形成新特征组Xk-r,设置k=k-r,若k=d,则终止算法,否则设置xk=xk-r,转向第一步。

(1)当L>r时,L-r法是一种自下而上的算法,先执行第一步,然后执行第二步,开始时,设置k=0,x0=空

(2)当L

2模拟退火法采用Metropolis接受准则,冷却进度表的主要参数包括(温度T的初始值,控制参数T的衰减函数,Mapkob链的长度,停止准则)。

???3.遗传算法的运算过程主要分四个阶段:包括编码阶段、选择阶段、交叉阶段、(变异阶段)。其中,(选择)阶段可以加入最优保留策略,该策略的优点是(保留有利的,不利的淘汰)。遗传算法的初始群体规模过小,可能导致算法(局部最优)现象发生,从而降低算法的搜索性能。遗传算法的终止条件有多种,你认为使用(?)方法终止算法,能较好提高搜索结果的质量。

联系合同范文客服:xxxxx#qq.com(#替换为@)