《模式识别》期末考试考题汇总带答案

目录

一、名词解释

二、填空题

三、简答题

四、计算题


一、名词解释

样本(sample:所研究对象的一个个体。

样本集(sample set:若干样本的集合。

类或类别(class:在所有样本上定义的一个子集,处于同一类的样本在我们所关心的某种性质上是不可区分的,即具有相同的模式。

特征(features:指用于表征样本的观测。

已知样本(known samples:指事先知道类别标号的样本。

未知样本(unknown samples:指类别标号未知但特征已知的样本。

模式识别(pattern recognition):就是用计算的方法根据样本的特征将样本划分到一定的类别中去。

统计模式识别:用概率统计的观点和方法来解决模式识别问题。

贝叶斯决策(统计决策理论):是统计模式识别的基本方法和基础;是“最优分类器”:使平均错误率最小。

最小风险贝叶斯决策:最小错误率只考虑了错误,进一步可考虑不同错误所带来的损失(代价)。

Neyman-Pearson 决策规则:限定一类错误率为常数而使另一类错误率最小的决策。

参数估计(parametric estimation):已知概率密度函数的形式,只是其中几个参数未知,目标是根据样本估计这些参数的值。

非参数估计:在一些情况下我们无法实现判断数据的分布情况。

统计量(statistics):样本的某种函数,用来作为对某参数的估计 。

参数空间(parametric space):待估计参数的取值空间 。

估计量(estimation)\hat{\Theta }=(x_{1},x_{2},...,x_{N})

贝叶斯估计:思路与贝叶斯决策类似,只是离散的决策状态变成了连续的估计。

最优超平面:一个超平面,如果它能够将训练样本没有错误地分开,并且两类训练样本中离超平面最近的样本与超平面之间的距离是最大的,则我们把这个超平面称作最优分类超平面(Optimal Seperating Hyperplane),简称最优超平面(Optimal Hyperplane)。两类样本中离分类面最近的样本到分类面的距离称作分类间隔(margin),最优超平面也称作最大间隔超平面。

特征形成(特征获取、提取):直接观测到的或经过初步运算的特征——原始特征 。

特征选择 :从 m 个特征中选择 m_{1} 个,m_{1}<m(人为选择、算法选择) 。

特征提取(特征变换,特征压缩):将 m 个特征变为 m_{2} 个新特征——二次特征。

特征的评价准则:特征选择与提取的任务是找出一组对分类最好的特征。

二、填空

1、解决模式识别的方法可以归纳为基于知识的方法基于数据的方法两大类。

2、一个模式识别问题往往包括以下五个阶段:问题的提出和定义数据获取和预处理特征提取和选择分类器设计和性能评估分类及结果解释

3、模式识别应用举例:语音识别说话人识别字符与文字识别复杂图像中特定目标的识别根据地震勘探数据对地下储层性质的识别利用基因表达数据进行癌症分类

4、统计决策基本原理:根据各类特征的概率模型来估算后验概率,通过比较后验概率进行决策

5、第一类错误率(Type-I error rate\alpha= 假阳性率 = 假阳性样本数 / 总阴性样本数
      第二类错误率(Type-II error rate\beta= 假阴性率 = 假阴性样本数 / 总阳性样本数

6、ROC曲线(ROC Curve)纵坐标:真阳性率(灵敏度);横坐标:假阳性率(1-特异度)

7、估计概率密度的两种基本方法:参数方法 (parametric methods)非参数方法 (nonparametric methods)

8、贝叶斯估计基本思想:把待估计参数{\color{Red} \Theta} 看作具有先验分布{\color{Red} p(\Theta )}的随机变量,其取值与样本集{\color{Red} \chi }有关,根据样本集{\color{Red} \chi ={x_{1},x_{2},...,x_{N}}}估计{\color{Red} \Theta }

9、从基于概率密度(估计)的分类器设计到基于样本的直接分类器设计思路: 首先选定判别函数类和一定的目标(准则),利用样本集确定出函数类中的某些未知参数,使所选的准则最好。

10、基于样本直接设计分类器需要确定三个基本要素:一是分类器即判别函数的类型、二是分类器设计的目标或准则、三是在前两个要素明确后,如何设计算法利用样本数据搜索到最优的函数参数(即选择函数集中的函数)

11、非线性分类器包括分段线性分类器二次判别函数神经网络支持向量机等。

12、线性分类器包括Fisher线性判别器感知器最小平方误差判别器最优分类超平面线性支持向量机

13、主成分分析目的:出发点是从一组特征中计算出一组按重要性从大到小排列的新特征,它们是原有特征的线性组合,并且相互之间是不相关的

三、简答题

1、简述模式识别系统的典型构成。

有已知样本情况:监督模式识别(supervised PR) :已知要划分的类别,并且能够获得一定数量的类别已知的训练样本, 这种情况下建立分类器的问题属于监督学习问题,程总做监督模式识别,因为我们有训练样本来作为学习过程的"导师"。


处理监督模式识别问题的一般步骤:
· 分析问题:深入研究应用领域的问题,分析是否属于模式识别问题,把所研究的目标表示为一定的类别,分析给定数据或者可以观测的数据中哪些因素可能与分类有关。
· 原始特征获取:设计实验,得到已知样本,对样本实施观测和预处理,获取可能与样本分类有关的观测向量(原始特征)。
· 特征提取与选择:为了更好地进行分类,可能需要采用一定的算法对特征进行再次提取和选择。
· 分类器设计:选定一定的分类器方法,用已知样本进行分类器训练。
· 分类决策:利用一定的算法对分类器性能进行评价;对未知样本实施同样的观测、预处理和特征提取与选择,用所设计的分类器进行分类,必要时根据领域知识进行进一步的后处理。

无已知样本情况:非监督模式识别(unsupervised PR):非监督模式识别称作聚类,在很多非监督模式识别问题中,答案并不一定是唯一的,特点是由于没有类别已知的训练样本,在没有其他额外信息的情况下,采用不同的方法和不同的假定可能会导致不同的结果。


处理非监督模式识别问题的一般步骤:
· 分析问题:深入研究应用领域的问题,分析研究目标能否通过寻找适当的聚类来达到;如果可能,猜测可能的或希望的类别数目;分析给定数据或者可以观测的数据中哪些因素可能与聚类有关。
· 原始特征获取:设计实验,得到待分析的样本,对样本实施观测和预处理,获取可能与样本聚类有关的观测向量(原始特征)。
· 特征提取与选择:为了更好地进行聚类,可能需要采用一定的算法对特征进行再次提取和选择。
· 聚类分析:选定一定的非监督模式识别方法,用样本进行聚类分析。
·
结果解释:考察聚类结果的性能,分析所得聚类与研究目标之间的关系,根据领域知识分析结果的合理性,对聚类的含义给出解释;如果有新样本,把聚类结果用于新样本分类。

2、简述最大似然函数的假设条件和基本思想

假设条件:
① 参数\Theta是确定的未知量,(不是随机量)
② 各类样本集 \chi _{i},i=1,...,c 中的样本都是从密度为 p(x|\omega _{i}) 的总体中独立抽取出来的,(独立同分布,i.i.d.
p(x|\omega _{i}) 具有某种确定的函数形式,只其参数 \Theta 未知
④ 各类样本只包含本类分布的信息
其中,参数 \Theta 通常是向量,比如一维正态分布 N(\mu _{i},\sigma _{1}^{2}),未知参数可能是 \Theta _{i}=\begin{bmatrix} \mu _{i}\\ \sigma _{i}^{2} \end{bmatrix},此时 p(x|\omega _{i}) 可写成 p(x|\omega _{i},\theta _{i})  或 p(x|\theta _{i})

基本思想:如果在参数\Theta = \hat{\Theta}下 l(\Theta ) 最大,则 \hat{\Theta } 应是“最可能”的参数值,它是样本集的函数,记作 \hat{\Theta }=d(x_{1},x_{2},...,x_{N})=d(\chi ) 。称作最大似然估计量。
为了便于分析,还可以定义对数似然函数 H(\Theta )=lnl(\Theta )

3、简述求贝叶斯估计的方法(平方误差损失下)

(1)确定 \Theta 的先验分布 p(\Theta )
(2)求样本集的联合分布 p(\chi |\Theta )=\prod_{i=1}^{N}p(x_{i}|\Theta )
(3)求 \Theta 的后验概率分布 p(\Theta |\chi )=\frac{p(\chi |\Theta )p(\Theta )}{\int_{\Theta }^{\, }p(\chi |\Theta )p(\Theta )d\Theta }
(4)求 \Theta 的贝叶斯估计量 \hat{\Theta }=\int_{\Theta }^{\, }\Theta p(\Theta |\chi )d\Theta

4、简述概率密度估计的非参数方法

①直方图方法 
   非参数概率密度估计的最简单方法
(1)把 x 的每个分量分成 k 个等间隔小窗,(若 x\epsilon E^{d} ,则形成 k^{d} 个小舱)
(2
)统计落入各个小舱内的样本数 q_{i}
(3
)相应小舱的概率密度为 q_{i}/(NV)N:样本总数,V:小舱体积)
② k_{N} - 近邻估计
    \hat{p}_{n}(x)=\frac{k_{n}/N}{V_{n}}
通过控制小区域内的样本数 k_{n} 来确定小区域大小。

Parzen 窗法
   \hat{p}(x)=\frac{1}{N}\sum_{i=1}^{N}k(x,x_{i})
1)超立方体窗(方窗) (2)正态窗(高斯窗)(3)超球窗

5、简述Fisher 准则函数

把线性分类器的设计分为两步:一是确定最优的方向, 二是在这个方向,上确定分类阈值。
两类的线性判别问题可以看做是把所有样本都投影到一一个方向上,然后在这个一维空间中确定一个分类的阈值。过这个阈值点且与投影方向垂直的超平面就是两类的分类面。
思想:选择投影方向,使投影后两类相隔尽可能远,而同时每一-类内部的样本又尽可能聚集。
Flsher判别函数最优解本身只是给出了-一个投影方向, 并没有给出我们所要的分类面。要得到分类面,需要在投影后的方向(一维空间)上确定一个分类阈值\omega _{0}, 并采取决策规则
当样本是正态分布且两类协方差矩阵相同时,最优贝叶斯分类器是线性函数g(x)=w^{T}x+w_{0}
当样本为正态分布且两类协方差相同的情况下,如果把算数平均作为均值的估计,把样本协方差矩阵当做是真实协方差矩阵的估计,则Fisher线性判别所得的方向实际就是最优贝叶斯决策的方向。

6、简述固定增量法

(1)初值 \alpha (0) 任意
(2)对样本 y_{j},若 \alpha (k)^{T}y_{j}<0,则 \alpha (k+1)=\alpha (k)+y_{j}\; \; \; \; \; \; (\rho _{k}=1)
(3)对所有样本重复(2),直至 J_{P}=0

7、简述特征的评价准则

基于类内类间距离的可分性判据
    特点:
    直观,易于实现(用样本计算),较常用。
    不能确切表明各类分布重叠情况,与错误率无直接联系。
    当各类协差相差不大时,用此种判据较好。
②基于概率分布的可分性判据
    考查两类分布密度之间的交叠程度
    考查联合分布密度 p(x,\omega _{i})=p(x|\omega _{1})p(\omega _{i})
    如 x 与 \omega _{i} 独立,p(x,\omega _{i})=p(x)P(\omega _{i}),即 p(x)=p(x|\omega _{i})
    则 x 不能提供对分类 \omega _{i} 的信息
    因此可定义 p(x) 与 p(x|\omega _{i}) 之间关系的一个函数作为判据:J_{i}=\int g(P(x|\omega _{i}),p(x),P(\omega _{i}))dx称作概率相关性判据。
③基于熵的可分性判据
    熵:事件不确定性的度量 。A 事件的不确定性大(熵大),则对 A 事件的观察所提供的信息量大。
    思路:把各类 \omega _{i} 看作一系列事件
               把后验概率 p(\omega _{i}|x) 看作特征 x 上出现 \omega _{i} 的概率
               如从 x 能确定 \omega _{i},则对 \omega _{i} 的观察不提供信息量,熵为 0。 —— 特征 x 有利于分类。
               如从 x 完全不能确定 \omega _{i} ,则对 \omega _{i} 的观察信息量大,熵大。 —— 特征 x 无助于分类。
④用统计检验作为可分性判据

    选择在两类间有显著差异的特征。
    基本做法:
    把两类样本混合在一起,按所考查的特征从小到大排序 ;
    如果一类样本排序序号之和(秩和)显著地比另一类样本小(或大),则两类样本在所考查的特征上有显著差异。

8、简述分支定界算法

从顶向下,有回溯
应用条件:准则函数有单调性


基本思想:按照一定的顺序将所有可能的组合排成一棵树,沿树进行搜索,避免一些不必要的计算,使找到最优解的机会最早。
特点: ① 最优搜索算法,所有可能的组合都被考虑到
            ② 前提:准则函数单调性
(注:实际中可能不满足,因 是估计值)
            ③ 节约计算与存储
            ④ d\approx 2/D 时最经济
算法要点:根结点为第 0
级,包含全体特征
                  每个结点上舍弃一个特征,各个叶结点代表选择的各种组合
                  避免在整个树中出现相同组合的树枝和叶结点
                  记录当前搜索到的叶结点的最大准则函数值(界限 B
),初值置 0
                  每级中将最不可能被舍弃(即舍弃后值最小)的特征放在最左侧
                  从右侧开始搜索
                  从左侧同级中将舍弃的特征不在本结点以下各级中舍弃
                  搜索到叶结点后,更新 B
值,然后回溯到上一分支处
                  如果结点上,则不向下搜索,向上回溯
                  每次回溯将已舍弃的特征放回(放回待舍弃之列)
                  如已回溯到顶(根)而不能再向下搜索,则的叶结点即为解。

 

四、计算题


猜你喜欢

转载自blog.csdn.net/IT_charge/article/details/112400123
今日推荐