模式识别教材书选择填空期末汇总

参考教材书:《模式识别》吴陈等编著,机械工业出版社。

2.11 选择题

​ (1)影响聚类算法结果的主要因素有(B C D BCD B C D)

​ A . A.A . 已知类别的样本质量 B . B.B . 分类准则 C . C.C . 特征选取 D . D.D . 模式相似性测度

​ (2)聚类分析算法属于(A A A)

​ A . A.A . 无监督分类 B . B.B . 有监督分类 C . C.C . 统计模式识别方法 D . D.D . 句法模式识别方法

​ (3)影响 K − K-K −均值聚类算法效果的主要因素之一是初始聚类中心的选取,相比较而言,怎样选择 k k k 个样本作为初始聚类中心较好(C C C)

​ A . A.A . 按输入顺序选前 B . B.B . 选相距最远的 C . C.C . 选分布密度最高处的 D . D.D . 随机挑选

​ (4)如下聚类算法中,属于静态聚类算法的是(A B AB A B)

​ A . A.A . 最大最小距离聚类算法 B . B.B . 层次聚类算法 C . C.C . K − K-K −均值聚类算法 D . D.D . I S O D A T A ISODATA I S O D A T A 算法

​ (5)若描述模式的特征量为 0 − 1 0-1 0 −1 二值特征向量,则一般采用(D D D)进行相似度量。

​ A . A.A . 距离测度 B . B.B . 模糊测度 C . C.C . 相似测度 D . D.D . 匹配测度

2.12 填空题

​ (1)影响层次聚类算法结果的主要因素有 计算模式距离的测度、聚类准则、类间距离阈值、预定的类别数目。

​ (2)层次聚类算法为 凝聚法 和 分裂法。

​ (3)动态聚类算法选择若干样品作为 聚类中心,再按照某种聚类准则,将其余的样品归入 各中心,得到初始分类。

​ (4)影响 K − K-K −均值聚类算法的因素有聚类中心个数、初始聚类中心、样品的几何性质及排列次序。

3.16 选择题

​ (1)费歇尔线性判别函数的求解过程是将 N N N 维特征向量投影在(B B B)中进行。

​ A . A.A . 二维空间 B . B.B . 一维空间 C . C.C . N − 1 N-1 N −1 维空间 D . D.D . 三维空间

​ (2)感知器算法(A A A)情况。

​ A . A.A . 只适用于线性可分 B . B.B . 只适用于线性不可分 C . C.C . 不适用于线性可分 D . D.D . 适用于线性可分和不可分

​ (3)H − K H-K H −K 算法(D D D)。

​ A . A.A . 只适用于线性可分 B . B.B . 只适用于线性不可分 C . C.C . 不适用于线性可分 D . D.D . 适用于线性可分和不可分

​ (4)位势函数法的积累势函数 K ( X ) K(X)K (X ) 的作用相当于贝叶斯判别中的(B D BD B D)。

​ A . A.A . 先验概率 B . B.B . 后验概率 C . C.C . 类概率密度 D . D.D . 类概率密度与先验概率的乘积

​ (5)聚类分析算法属于无监督分类;判别域代数界面方程法属于(C C C)。

​ A . A.A . 无监督分类 B . B.B . 有监督分类 C . C.C . 统计模式识别方法 D . D.D . 句法模式识别方法

​ (6)类域界面方程法中,能求线性不可分情况下分类问题近似或精确解的方法是(B C D BCD B C D)。

​ A . A.A . 感知器算法 B . B.B . 伪逆法 C . C.C . 基于二次准则的 H − K H-K H −K 算法 D . D.D . 势函数法

对于D,势函数法:势函数非线性。
对于C,基于二次准则的H-K算法:在最小均方误差准则下求得权矢量,可以解决非线性问题。
对于B,伪逆法:径向基(RBF)神经网络的训练算法,解决线性不可分的情况。
对于A,感知器算法:线性分类模型。
“不能求解线性不可分情况下的分类问题” 即:“不能求解非线性分类问题”,感知器算法属于线性分类模型,故不能求解非线性分类问题。
汇总:解决非线性问题:势函数法;基于二次准则的H-K算法;伪逆法

只能解决线性问题:感知器算法。

​ (7)判别域代数界面方程法属于(B B B)。

​ A . A.A . 无监督分类 B . B.B . 统计模式识别方法 C . C.C . 模糊模式识别方法 D . D.D . 句法模式识别方法

​ (8)下列判别域界面方程法中只适用于线性可分情况的算法有(A D AD A D)。

​ A . A.A . 感知器算法 B . B.B . H − K H-K H −K 算法 C . C.C . 积累位势函数法 D . D.D . 费歇尔线性判别法

​ (9)线性可分、不可分都适用的有(C C C)。

​ A . A.A . 感知器算法 B . B.B . H − K H-K H −K 算法 C . C.C . 积累位势函数法 D . D.D . 费歇尔线性判别法

3.17 填空题

​ (1)L M S E LMSE L M S E 算法是对准则函数引进 最小均方误差 这一条件而建立起来的。

​ (2)核方法首先采用非线性映射将原始数据由 低维空间 映射到 高维空间,进而在特征空间进行着对应的线性操作。

​ (3)线性判别函数的正负和数值大小的几何意义是,正负表示样本点位于判别界面法向量指向的 正(负) 半空间中,绝对值正比于 样本点到判别界面的距离。

5.2 选择题

​ (1)欧氏距离具有(A B AB A B),马氏距离具有(A B C D ABCD A B C D)

​ A . A.A . 平移不变形 B . B.B . 旋转不变形 C . C.C . 尺寸缩放不变形 D . D.D . 不受量纲影响的特性

​ (2)下列函数可以作为聚类分析中的准则函数的有(A C D ACD A C D)

​ A . t r ( S ω − 1 S b ) A.tr({S_\omega}^{-1}S_b)A .t r (S ω​−1 S b ​) B . ∣ S ω S b − 1 ∣ B.|S_\omega{S_b}^{-1}|B .∣S ω​S b ​−1 ∣

​ C . ∑ j = 1 c ∑ i = 1 N j ∣ ∣ X i ( j ) − M j ∣ ∣ 2 C.\sum\limits_{j=1}^{c}\sum\limits_{i=1}^{N_j}||{X_i}^{(j)}-M_j||^2 C .j =1 ∑c ​i =1 ∑N j ​​∣∣X i ​(j )−M j ​∣∣2 D . ∑ j = 1 c ( M j − M ) ( M j − M ) T D.\sum\limits_{j=1}^{c}(M_j-M)(M_j-M)^T D .j =1 ∑c ​(M j ​−M )(M j ​−M )T

5.3 填空题

​ (1)设 ω i = { x k ( i ) , k = 1 , 2 , ⋅ ⋅ ⋅ , N i } \omega_i={{x_k}^{(i)},k=1,2,···,N_i}ωi ​={x k ​(i ),k =1 ,2 ,⋅⋅⋅,N i ​} 的均值向量为 m ( i ) m^{(i)}m (i ),则由样本集定义的类内均方欧氏距离为 D i ‾ 2 = E { D 2 ( X k , X l ) } = E { ( X k − X l ) T ( X k − X l ) } \overline{D_i}^2=E{D^2(X_k,X_l)}=E{(X_k-X_l)^T(X_k-X_l)}D i ​​2 =E {D 2 (X k ​,X l ​)}=E {(X k ​−X l ​)T (X k ​−X l ​)}。

​ (2)三种基于概率密度的判断依据分别为:散度、C h e r n o f f Chernoff C h e r n o f f界限、巴氏距离。

​ (3)基于熵的可分性判别定义为 J h = E x [ − ∑ i = 1 c P ( ω i ∣ x ) log ⁡ P ( ω i ∣ x ) ] J_h=E_x[-\sum\limits_{i=1}^{c}P(\omega_i\mid x)\log P(\omega_i\mid x)]J h ​=E x ​[−i =1 ∑c ​P (ωi ​∣x )lo g P (ωi ​∣x )],J h J_h J h ​ 越 小,说明模式的可分辨性越强。当 P ( ω i ∣ x ) = P(\omega_i\mid x)=P (ωi ​∣x )= 1 c ‾ \underline{\frac{1}{c}}c 1 ​​ 时,J h J_h J h ​ 达到极大值。

​ (4)散度 J i j J_{ij}J i j ​ 越大,说明 ω i \omega_i ωi ​ 类模式与 ω j \omega_j ωj ​ 类模式的分布分离 越开;当 ω i \omega_i ωi ​ 类模式与 ω j \omega_j ωj ​ 类模式的分布相同时,J i j = J_{ij}=J i j ​= 0。

6.1 句法模式识别中,模式类是如何描述的?
由某个文法所描述的所有模式即句子的集合构成一个模式类。

6.2 文法 G G G 的四元组表达式为: G = ( V T , V N , S , P ) G=(V_T,V_N,S,P)G =(V T ​,V N ​,S ,P )。

6.3 按照产生式的形式定义的四种文法的包含关系为:3型 ⊆ \subseteq ⊆ 2型 ⊆ \subseteq ⊆ 1型 ⊆ \subseteq ⊆ 0型。

6.7 句法模式识别中模式表述的方法有(A B C ABC A B C)

​ A . A.A . 符号串 B . B.B . 树 C . C.C . 图 D . D.D . 特征向量

8.9 神经网络的学习方式有 有导师的学习、无导师的学习。

8.10 离散型 H o p f i e l d Hopfield H o p f i e l d 神经网络的工作方式有 同步、异步、。

8.11 感知器算法只适用于 线性可分问题。

8.12 单层感知器网络用于解决 线性可分 问题,而多层感知器网络可以解决 线性不可分 问题。

9.1 决策树基本由 分支结点、分支、叶结点 部分组成。

9.2 决策树学习通常包括三个步骤:特征选择、决策树生成、决策树剪枝。

9.3 在属性 A A A 上分支获得的信息增益表示为:G a i n ( A , D ) = I n f o ( D ) − E ( A , D ) = I ( s 1 , s 2 , ⋅ ⋅ ⋅ , s m ) − E ( A , D ) Gain(A,D)=Info(D)-E(A,D)=I(s_1,s_2,···,s_m)-E(A,D)G a i n (A ,D )=I n f o (D )−E (A ,D )=I (s 1 ​,s 2 ​,⋅⋅⋅,s m ​)−E (A ,D )。

9.4 基尼指数是一种数据的不纯度的度量方法,其公式为:G i n i ( D ) = ∑ j = 1 m p j ( 1 − p j ) = 1 − ∑ j = 1 m p j 2 Gini(D)=\sum\limits_{j=1}^{m}p_j(1-p_j)=1-\sum\limits_{j=1}^{m}{p_j}^2 G i n i (D )=j =1 ∑m ​p j ​(1 −p j ​)=1 −j =1 ∑m ​p j ​2。

9.5 在建立决策树时,为了降低噪声影响,可进行 先剪枝 和 后剪枝 两种剪枝操作。

10.4 S V M SVM S V M 是一种两类分类模型,其基本模型定义为特征空间上的 间隔最大 的线性分类器。

10.5 支持向量机利用 核函数 取代了高位特征空间中的内积运算,解决了算法可能导致的”维数灾难”问题。

11.2 设论域 U = { 1 , 2 , 3 , 4 , 5 } U={1,2,3,4,5}U ={1 ,2 ,3 ,4 ,5 } 的二元关系 R 1 = { < 2 , 3 > , < 3 , 2 > , < 3 , 5 > , < 5 , 3 > , < 5 , 2 > , < 2 , 5 > } ∪ I U , R 2 = { < 4 , 2 > , < 2 , 4 > , < 2 , 3 > , < 3 , 2 > , < 4 , 3 > , < 3 , 4 > , < 1 , 5 > , < 5 , 1 > } ∪ I U R_1={R 1 ​={<2 ,3 >,<3 ,2 >,<3 ,5 >,<5 ,3 >,<5 ,2 >,<2 ,5 >}∪I U ​,R 2 ​={<4 ,2 >,<2 ,4 >,<2 ,3 >,<3 ,2 >,<4 ,3 >,<3 ,4 >,<1 ,5 >,<5 ,1 >}∪I U ​,其中 I U I_U I U ​ 为 U U U 上的恒等关系,则 U / R 1 = { < 2 , 3 , 5 > , < 1 > , < 4 > } U/R_1={U /R 1 ​={<2 ,3 ,5 >,<1 >,<4 >},U / R 2 = { < 2 , 3 , 4 > , < 1 , 5 > } U/R_2={U /R 2 ​={<2 ,3 ,4 >,<1 ,5 >}。

11.3 信息系统的四元组表达形式为:S = < U , A , V , f > S=S =

Original: https://blog.csdn.net/gwruiki/article/details/117390855
Author: ExcaliburZZ
Title: 模式识别教材书选择填空期末汇总

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/560500/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球