(完整word版)模式识别试题及总结.docx

上传人:lao****ou 文档编号:216799 上传时间:2023-06-01 格式:DOCX 页数:22 大小:209.99KB
下载 相关 举报
(完整word版)模式识别试题及总结.docx_第1页
第1页 / 共22页
(完整word版)模式识别试题及总结.docx_第2页
第2页 / 共22页
(完整word版)模式识别试题及总结.docx_第3页
第3页 / 共22页
(完整word版)模式识别试题及总结.docx_第4页
第4页 / 共22页
(完整word版)模式识别试题及总结.docx_第5页
第5页 / 共22页
亲,该文档总共22页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《(完整word版)模式识别试题及总结.docx》由会员分享,可在线阅读,更多相关《(完整word版)模式识别试题及总结.docx(22页珍藏版)》请在第一文库网上搜索。

1、一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择2、统计模式识别中描述模式的方法一般使用特真矢量:句法模式识别中模式描述方法一般有、3、聚类分析算法属于(1);判别域代数界面方程法属于(3)o(1)无监督分类(2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为OT二值特征量,则一般采用进行相似性度量。(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有。J=Ms%J=Is1aJJ=火网-丽)网-丽)(4)6、FiSher线性判别函数的求解过程是将N维特征

2、矢量投影在(2)中进行。(1)二维空间(2)一维空间(3)NT维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有_112_:线性可分、不可分都适用的有(3)o(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4).(1)(U0,1,J01,AQA1tAIAOtBBAiB0,A)(2)(J,0,1,U0,A04,A)(3)($,a,6,SfOOSSf11SST00,ST11,5)(4)(4,0,1,J01,A0J1,A1JO,A)9、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定的类别数目).10、欧

3、式距离具有(1、2);马式距离具有(1、2、3、4)。(1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性11、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离12、感知器算法1。(I)只适用于线性可分的情况;(2)线性可分、不可分都适用。13、积累势函数法较之于H-K算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情况):K=ZakK(五元k)位势函数K(x,Xk)与积累位势函数K(X)的关系为(臬邕工在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于(某一种判决错误较另

4、一种判;为重要)情况;最小最大判决准则主要用于(先验概率未知的)情况。15、”特征个数越多越有利于分类”这种说法正确吗?(错误)。特征选择的主要目的是(从n个特征中选出最有利于分类的的In个特征(mn)的条件下,可以使用分支定界法以减少计算量。16、散度Jij越大,说明i类模式与j类模式的分布(差别1达);当i类模式与j类模式的分布相同时,Jij=(O)o17、已知有限状态自动机Af=(,Q,q,F),=0,1;Q=(qO,q1;:(q,0)=q1,(q,D=q1,(q1O)=qO,(q1D=qO;qO=qO;F=qO。现有输入字符串:(a)00011101011,(b)1100110011,

5、(c)101100111000,(d)0010011,试问,用Af对上述字符串进行分类的结果为(31:a,d;32:b,c)O18、影响聚类算法结果的主要因素有(_)。已知类别的样本质量;分类准则;特征选取;模式相似性测度。19、模式识别中,马式距离较之于欧式距离的优点是(_)o平移不变性;旋转不变性;尺度不变性;考虑了模式的分布。20、基于二次准则函数的H-K算法较之于感知器算法的优点是(_)。可以判别问题是否线性可分;其解完全适用于非线性可分的情况;其解的适应性更好;计算量小。21、影响基本C均值算法的主要因素有()o样本输入顺序;模式相似性测度;聚类准则;初始类心的选取。22、位势函数法

6、的积累势函数K(X)的作用相当于BayeS判决中的(_)。先验概率;后验概率;类概率密度;类概率密度与先验概率的乘积。23、在统计模式分类问题中,当先验概率未知时,可以使用(_)。最小损失准则;最小最大损失准则;最小误判概率准则;N-P判决。24、在(_)情况下,用分支定界法做特征选择计算量相对较少。Cndn,(n为原特征个数,d为要选出的特征个数);样本较多;选用的可分性判据J对特征数目单调不减;选用的可分性判据J具有可加性。25、散度JD是根据(_)构造的可分性判据。先验概率;后验概率;类概率密度;信息墙;几何距离。26、似然函数的概型已知且为单峰,则可用(一_)估计该似然函数。矩估计;最

7、大似然估计;BayeS估计;BayeS学习;ParZen窗法。27、Kn近邻元法较之ParZen窗法的优点是(_)。所需样本数较少;稳定性较好;分辨率较高;连续性较好。28、从分类的角度讲,用DK1T做特征提取主要利用了DK1T的性质:(_)。变换产生的新分量正交或不相关;以部分新的分量表示原矢量均方误差最小;使变换后的矢量能量更趋集中;29、一般,剪辑k-NN最近邻方法在(_)的情况下效果较好。样本数较大;样本数较小;样本呈团状分布;样本呈链状分布。30、如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有(_)。已知类别样本质量;分类准则;特征选取;量纲。二、(15分

8、)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。答:(1)分类准则,模式相似性测度,特征量的选择,量纲。(2)证明:(2分)(2分)(1分)(1分)d2%)=(Zbj/-W-4)1W-Ij.1f=用Z设,有非奇异线性变换:1nInn=为毕冬-相)(冬)1W=砧/=白苫招-幻幻4f耳_?)y=/6d泡=MF)咛Wr)=(AV名)号|(9-修)=仪-4评咛U0F)=仪-4),/(幺匕/丁。(彳-4)=(jT)IXERjT招_弓),-一引叼国-引=M(Nj)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。答:(4分)

9、人乃的绝对值(利正比于N到超平面d(R=的距离九%】平面TT的方程可以写成忻。1P11Ji式中腕I=(W+W+4产。于是11%1是平面Ti的单位法矢量,上式可写成设,是平面穴中的任一点,N是特征空间X中任一点,点F到平面九的距离为差矢量1-A)在杼上的投影的绝对值,即4Kip幅剖(1-1)=i1上式中利用了P在平面力中,故满足方程福3一%I闷”阿式(IT)的分子为判别函数绝对值,上式表明,d(f)的值口(幻I正比于元到超平面d(f)二的距离d,一个特征矢量代入判别函数后所得值的绝对值越大表明该特征点距判别界面越远。(2)(4分)H(J)的正(负)反映M在超平面由寺二”的正(负)侧两矢量方和凌一

10、万)的数积为才任一万)=同F-司COGa-汾)(2分)显然,当月和(N-万)夹角小于90时,即N在方指向的那个半空间中,cos(,(-p)0,反之,当杼和(G-A)夹角大于90时,即N在方背向的那个半空间中,cos(.(x-p)0,故彳(G-5)和阿/十”“同号。所以,当N在方指向的半空间中时,彳/+R0;当H在为背向的半空间中,/+w川0。判别函数值的正负表示出特征点位于哪个半空间中,或者换句话说,表示特征点位于界面的哪一侧。五、(12分,每间4分)在目标识别中,假定有农田和装甲车两种类型,类型助和类型处分别代表农田和装甲车,它们的先验概率分别为0.8和0.2,损失函数如表1所示。现在做了三

11、次试验,获得三个样本的类概率密度如下:p(x0):0.3,0.1,0.6P(X1。2):0.7,0.8,0.3(1) 试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;(2) 假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本各属于哪一类;(3) 把拒绝判决考虑在内,重新考核三次试验的结果。表1判决类型叼*14%51%11H明3产5明)二3解:由题可知:/马)=07尸=03,P(Cnt)7,F(x1)7,1)s1/UIq)7x2)8,料与1%)(1) (4分)根据贝叶斯最小误判概率准则知:P(Ag)尸)1p).)尸(Re)尸(勺),则可以任判;X)P(a),则判为叫;尸(/I的)R

12、/),则判为色h()(i-),0.3(5-1)=4(4分)由题可知:)(Aa-Ai)07(4-1)7改1明4则EXI1e)7,判为叫小6)J81叼)7,判为生;-56);4H/S)Z判为叫(3)(4分)对于两类问题,对于样本X,假设尸(X)已知,有RqIx)=ajaPax)()P(x)=_/引卬P(XI%)尸)+4(%I的)尸(XIRp(%)PW则对于第一个样本,D/1x5021o,I、4021dz1x20.21火(用Ix)=,$、,及(勾IX)=、,砥IX)=ZTT-产(力F(X)尸S),则拒判;K加霜及仙爵3024尸(力,则拒判;KGiX)=051尸(K),拒判,078dz.x2.19D/

13、1x而火闻X)=而典引彳)1 .监督学习与非监督学习的区别:监督学习方法用来对数据实现分类,分类规则通过训练获得。该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,般用来对数据集进行分析,如聚类,确定其分布的主分量等。(实例:道路图)就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。2 .动态聚类是指对当前聚类通过迭代

14、运算改善聚类:分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。3 .线性分类器三种最优准则:FiSher准则:根据两类样本一般类内密集,类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。该种度量通过类内离散矩阵Sw和类间离散矩阵Sb实现。感知准则函数:准则函数以使错分类样本到分界面距离之和最小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。支持向火机:基本思想是在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大,它的基本出发点是使期望泛化风险尽可能小。一、试问“模式”与“模式类的含义。如果一位姓王的先生是位老年人,试问王先生和老头”谁是

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 汇报材料

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服