1、模式识别试题二 答案问答第 1 题答:在模式识别学科中,就“模式”与“模式类”而言,模式类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式” ,是“老头”的具体化。问答第 2 题答:Mahalanobis 距离的平方定义为:其中 x,u 为两个数据, 是一个正定对称矩阵(一般为协方差矩阵) 。根据定义,距某一点的Mahalanobis 距离相等点的轨迹是超椭球,如果是单位矩阵 ,则 Mahalanobis 距离就是通常的欧氏距离。问答第 3 题答:监督学习方法用来对数据实现分类,分类规则通过训练获得。该训练集由带分类号的数据集组成,因此监督
2、学习方法的训练过程是离线的。非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。问答第 4 题答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。问答第 5 题答:在给定观察序列 条件下分析它由某个状态序列 S 产生
3、的概率似后验概率,写成 P(S|O),而通过 O 求对状态序列的最大似然估计,与贝叶斯决策的最小错误率决策相当。问答第 6 题答:协方差矩阵为 ,则1) 对角元素是各分量的方差,非对角元素是各分量之间的协方差。2) 主分量,通过求协方差矩阵的特征值,用 得 ,则 ,相应的特征向量为: ,对应特征向量为 ,对应 。这两个特征向量即为主分量。3) K-L 变换的最佳准则为:对一组数据进行按一组正交基分解,在只取相同数量分量的条件下,以均方误差计算截尾误差最小。4) 在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关消除。问答第 7 题答:1、求数据集的主分量是非监督学习方法;2、汉字识别
4、对待识别字符加上相应类别号有监督学习方法;3、自组织特征映射将高维数组按保留近似度向低维映射非监督学习;4、CT 图像分割按数据自然分布聚类非监督学习方法;问答第 8 题答:线性分类器三种最优准则:Fisher 准则:根据两类样本一般类内密集, 类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。该种度量通过类内离散矩阵 Sw 和类间离散矩阵 Sb 实现。感知准则函数:准则函数以使错分类样本到分界面距离之和最小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。支持向量机:基本思想是
5、在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大, 它的基本出发点是使期望泛化风险尽可能小。问答第 9 题答:按题意要求1) H1 与 H2 将空间划分成四个部分,按使 H1 与 H2 大于零与小于零表示成四个区域,而第一类属于()区域,为方便起见,令 则第一类在()区域。用双层感知器,神经元用 域值,则在第一类样本输入时,两隐层结点的输出均为1,其余则分别为(),(),(),故可按图设置域值。2) 用凹函数的并表示: 或表示成 ,如 ,则,否则问答第 10 题答:设待求 ,待求由于 ,先验概率相等。则基于最小错误率的 Bayes 决策规则,在两类决策面分界面上的样本 X 应满足
6、(1)其中按题意 , (注:为方便起见,在下面计算中先去掉系数 4/3) 。按题意分界面由 x1=3 及 x2=0 两条直线构成,则分界面方程为(2)对(1)式进行分解有得 (3)由(3)式第一项得(4)将(4)式与(2)式对比可知a=1,c=1又由 c=1 与 ,得 b2=1/4,b 有两种可能,即 b=1/2 或 b=-1/2,如果 b=1/2,则表明 ,此时分界面方程应为线性,与题意不符,只有 b=-1/2则(4)式为:2X 1X2 (5)将相应结果带入(3)式第二项有(6)则结合(5) (2)应有,则 (7)解得 , 由 得模式识别试题一 答案问答第 1 题答:模式类:老年人 模式:王
7、老太,老头,老太。 模式类:年青人 模式:王明(清华大学本科生),周强(年轻教师) 模式类:老头 模式:王老头 模式类:老太 模式:王老太 问答第 2 题答:由分布系数可知,A 与 B 在空间呈圆形分布,故 fisher 准则中使用的投影直线应该为两圆心的连线方向,则法线应该垂直于这个方向,应为(-3,2)。问答第 3 题答:第一种方法中标记了两类样本的标号,需要人手工干预训练过程,属于监督学习方法; 第二种方法只是依照数据的自然分布,把它们划分成两类,属于非监督学习方法。 问答第 4 题答:对角阵形式为: ,只有在对角线上元素非零。根据协方差矩阵的含义,a,b,c 分别是每一维向量的自相关系
8、数。则 Mahalanobis 距离的展开形式是:是三维空间的一个椭球。问答第 5 题答:近邻法分类器的每条分界线必然由两个分别属于两类的样本点决定,故一定是线性的。这些分界面拼接起来,就得到了分段线性的近邻法分类器。本题的分类器以在原图上标出。问答第 6 题答:(a)由于分类器由三个线性方程式决定,可用三个感知器按题意,阴影部分决策域要求 因此可设计的四个神经元进行运算,为 由此可以得到神经元网络为 (b)图(b)的决策域与图(a)的差异只在于决策域要求 即 运算函数的一种方案为 此时的网络结构及参数是问答第 7 题答:按 Hebb 规则,有 得 该 Hopfield 网络只有 1 与 2,
9、以及 3 与 4 之间有联接,其联接权值都为-1。 而外触发信号(-1,1,1,1)消失后,稳态为(-1,1,-1,1) 外触发信号(1,-1,1,1)消失后,稳态为(1,-1,1,-1)或(1,-1,-1,1) 它们分别是两个存储信号的反相。模式识别试题三 答案问答第 4 题答:设次二次曲面为故广义权向量: 广义样本向量: 维数为 9。问答第 5 题答:由于两类样本分布形状是相同的(只是方向不同),因此 w0应为两类均值的中点。下图中的绿线为最佳线性分界面。问答第 6 题答:第一类的均值向量为问答第 7 题答:求该八个数据的协方差距离,先求该八个点的均值向量,得均方距离由于它已是一个对角矩阵
10、,且主对角线元素值相等,因此无需进一步做 K-L 变换,原坐标系的基已经是 K-L 变换的基, 并且任何一组正交基都可作为其 K-L 变换的基。问答第 8 题证明:先验概率相等条件下,基于最小错误率贝叶斯决策的分界面上两类条件概率密度函数相等。因此有:化简为 ,是一个圆的方程。问答第 9 题解:(1)则 这是一个超球的方程。(2)由故可以推出则是 m 距离下的超球。(3)从上式可以看出模式识别 试卷一问答题一、 试从模式类与模式概念分析以下词之间的关系: 王老头,王老太,王明(清华大学本科生),周强(年轻教师),老年人,老头,老太,年青人。 二、 已知 A 类与 B 类样本在空间的分布为离散分
11、布 及 ,其中 ,试问:按 Fisher 准则设计线性分类器的法线向量。 三、 对一副道路图像,希望把道路部分划分出来,可以采用以下两种方法:1 在该图像中分别在道路部分与非道路部分画出一个窗口,把在这两个窗口中的象素数据作为训练集,用 Fisher 准则方法求得分类器参数,再用该分类器对整幅图进行分类。 2 将整幅图的每个象素的属性记录在一张数据表中,然后用某种方法将这些数据按它们的自然分布状况划分成两类。因此每个象素就分别得到相应的类别好,从而实现了道路图像的分割。 试问以上两种方法哪一种是监督学习,哪个是非监督学习? 四、 知一数据集的协方差矩阵是一个对角阵,数据集的维数为 3,试问该协
12、方差矩阵中每个元素的含义,并说明 Mahalanobis 距离为常数的数据点的轨迹的特点。五、 为什么说近邻法的分类器是线性分类器,试以以下样本数据集说明,并画出用近邻法得到的分类器 第一类样本:(0,1) T,(0,1) T 第二类样本:(0,0) T,(-1,0) T 六、设在二维特征空间中有三个线性分类器,其分界面方程分别为 X 1=0.5 X2=0.5 X1+X2=0 现欲由该三个线性方程构造两个分类器,分别如下图(a)与(b)所示 试设计两个多层感知器,分别实现这两个分类器,神经元网络采用域值函数,即输出函数y=f(h)为七、现欲利用离散 Hopfield 模型存储两个四维的数据 (
13、-1 1 1 -1)及(-1 1 -1 1)试求该 Hopfield 模型的联接参数,并求 1 触发信号为(-1,1,1,1)撤销后的输出状态2 触发信号为(1,-1,1,1)撤销后的输出状态 重 置模式识别 试卷二问答题一、 试问“模式”与“模式类”的含义。如果一位姓王的先生是位老年人,试问“王先生”和“老头”谁是模式,谁是模式类?二、试说明 Mahalanobis 距离平方的定义,到某点的 Mahalanobis 距离平方为常数的轨迹的几何意义,它与欧氏距离的区别与联系。三、试说明用监督学习与非监督学习两种方法对道路图像中道路区域的划分的基本做法,以说明这两种学习方法的定义与它们间的区别。
14、四、试述动态聚类与分级聚类这两种方法的原理与不同。五、如果观察一个时序信号时在离散时刻序列得到的观察量序列表示为 ,而该时序信号的内在状态序列表示成 。如果计算在给定 O 条件下出现 S 的概率,试问此概率是何种概率。如果从观察序列来估计状态序列的最大似然估计,这与 Bayes 决策中基于最小错误率的决策有什么关系。六、已知一组数据的协方差矩阵为 ,试问1 协方差矩阵中各元素的含义。2 求该数组的两个主分量。3 主分量分析或称 K-L 变换,它的最佳准则是什么?4 为什么说经主分量分析后,消除了各分量之间的相关性。七、试说明以下问题求解是基于监督学习或是非监督学习:1. 求数据集的主分量2.
15、汉字识别3. 自组织特征映射4. CT 图像的分割八、试列举线性分类器中最著名的三种最佳准则以及它们各自的原理。九、在一两维特征空间,两类决策域由两条直线 H1 和 H2 分界,其中 而包含 H1 与 H2 的锐角部分为第一类,其余为第二类。试求: 1用一双层感知器构造该分类器2用凹函数的并构造该分类器十、设有两类正态分布的样本基于最小错误率的贝叶斯决策分界面,分别为 X2=0,以及 X1=3,其中两类的协方差矩阵 ,先验概率相等,并且有 , 。试求: 以及 。问答题一、由 McCulloch-Pitts 模型组成的神经元网络的结构与参数如图所示。已知 X0, X1与 X2都属于0,1,试求
16、的真值表。(McCulloch-Pitts)使用的模型参数为:二、如标准数字 1 在 57 的方格中表示成如图所示的黑白图像,黑为 1,白为 0,现若有一数字 1 在 57 网格中向左错了一列。试用分别计算要与标准模板之间的欧氏距离、绝对值偏差、偏差的夹角表示,以及用“异或”计算两者差异。三、证明在 正定或半正定时,mahalanobis 距离 r 符合距离定义的三个条件,即(1) r(a,b)=r(b,a)(2) 当且仅当 a=b 时,有 r(a,b)=0(3) r(a,c)r(a,b)+r(b,c)四、设在三维空间中一个类别分类问题拟采用二次曲面。如欲采用广义线性方程求解。试向其广义样本向量与广义权向量的表达式,其维数是多少?五、设两类样本的类内离散矩阵分别为 ,试用 fisher 准则求其决策面方程。六、已知有两类数据,分别为试求:该组数据的类内及类间离散矩阵 及 。