文档库 最新最全的文档下载
当前位置:文档库 › 中科院-模式识别考题总结(详细答案)

中科院-模式识别考题总结(详细答案)

中科院-模式识别考题总结(详细答案)
中科院-模式识别考题总结(详细答案)

1.简述模式的概念及其直观特性,模式识别的分类,有哪几种方法。(6’)

答(1):什么是模式?广义地说,存在于时间和空间中可观察的物体,如果我们可以区别它们是否相同或是否相似,都可以称之为模式。

模式所指的不是事物本身,而是从事物获得的信息,因此,模式往往表现为具有时间和空间分布的信息。

模式的直观特性:可观察性;可区分性;相似性。

答(2):模式识别的分类:

假说的两种获得方法(模式识别进行学习的两种方法):

●监督学习、概念驱动或归纳假说;

●非监督学习、数据驱动或演绎假说。

模式分类的主要方法:

●数据聚类:用某种相似性度量的方法将原始数据组织成有意义的和有用的各种数据

集。是一种非监督学习的方法,解决方案是数据驱动的。

●统计分类:基于概率统计模型得到各类别的特征向量的分布,以取得分类的方法。

特征向量分布的获得是基于一个类别已知的训练样本集。是一种监督分类的方法,

分类器是概念驱动的。

●结构模式识别:该方法通过考虑识别对象的各部分之间的联系来达到识别分类的目

的。(句法模式识别)

●神经网络:由一系列互相联系的、相同的单元(神经元)组成。相互间的联系可以

在不同的神经元之间传递增强或抑制信号。增强或抑制是通过调整神经元相互间联

系的权重系数来(weight)实现。神经网络可以实现监督和非监督学习条件下的分

类。

2.什么是神经网络?有什么主要特点?选择神经网络模式应该考虑什么因素?

(8’)

答(1):所谓人工神经网络就是基于模仿生物大脑的结构和功能而构成的一种信息处

理系统(计算机)。由于我们建立的信息处理系统实际上是模仿生理神经网络,因此称它为人工神经网络。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。

人工神经网络的两种操作过程:训练学习、正常操作(回忆操作)。

答(2):人工神经网络的特点:

●固有的并行结构和并行处理;

●知识的分布存储;

●有较强的容错性;

●有一定的自适应性;

人工神经网络的局限性:

●人工神经网络不适于高精度的计算;

●人工神经网络不适于做类似顺序计数的工作;

●人工神经网络的学习和训练往往是一个艰难的过程;

●人工神经网络必须克服时间域顺序处理方面的困难;

●硬件限制;

●正确的训练数据的收集。

答(3):选取人工神经网络模型,要基于应用的要求和人工神经网络模型的能力间的

匹配,主要考虑因素包括:

● 网络大小;

● 所需输出类型; ● 联想记忆类型; ● 训练方法; ● 时间的限定。

3. 画出句法模式识别的框图,并解释其工作原理。(8’)

答(1):句法模式识别框图如下:

答(2):句法模式识别系统的组成:图像预处理,图像分割,基元及其关系识别,句法分析。

基于描述模式的结构信息,用形式语言中的规则进行分类,可以更典型地应用于景物图片的分析。

因为在这类问题中,所研究的模式通常十分复杂,需要的特征也很多,仅用数值上的特征不足以反映它们的类别。

句法模式识别系统处理过程:基元本身包含的结构信息已不多,仅需少量特征即可识别。如果用有限个字符代表不同的基元,则由基元按一定结构关系组成的子图或图形可以用一个有序的字符串来代表。假如事先用形式语言的规则从字符串中推断出能生成它的文法,则可以通过句法分析,按给定的句法(文法)来辨识由基元字符组成的句子,从而判别它是否属于由该给定文法所能描述的模式类,达到分类的目的。

4. (1)解释线性判别函数进行模式分类的概念;(2)既然有了线性判别函数,为什么还要用非线性判别函数进行模式分类?(3)两类模式,每类包括5个3维不同的模式,且良好分布。如果它们是线性可分的,问权向量至少需要几个系数分量?假如要建立二次的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变。)(8’)

答(1):模式识别系统的主要作用是判别各个模式所属的类别。线性判别函数分类就是使用线性判别函数将多类样本模式分开。

一个n 维线性判别函数的一般形式:

1122101()T

n n n n d x w x w x w x w w x w ++=++++=+

其中012(,,...,)T

n w w w w =称为权向量(或参数向量),12(,,...,)T

n x x x x =。

()d x 也可表示为:()T d x w x =

其中,12(,,...,,1)T

n x x x x =称为增广模式向量,0121(,,...,,)T

n n w w w w w +=称为增广权

向量。

两类情况:判别函数()d x :

1

2

0()0T

if x d x w x if x ωω>∈==≤∈???

多类情况:设模式可分成12,,...,M ωωω共M 类,则有三种划分方法: ● 多类情况1

用线性判别函数将属于i ω类的模式与不属于i ω类的模式分开,其判别函数为:

0()0i

T

i i

i

if x d x w x if x ωω>∈==≤????

这种情况称为/i i ωω两分法,即把M 类多类问题分成M 个两类问题,因此共有M 个判别函数,对应的判别函数的权向量为,1,2,...,n 1i w i =+。

● 多类情况2

采用每对划分,即|i j ωω两分法,此时一个判别界面只能分开两种类别,但不能把它与其余所有的界面分开。

其判别函数为:()T

ij ij d x w x =若()0ij d x >,j i ?≠,则i x ω∈ 重要性质:ij ji d d =-

要分开M 类模式,共需M(M-1)/2个判别函数。

不确定区域:若所有()ij d x ,找不到j i ?≠,()0ij d x >的情况。 ● 多类情况3(多类情况2的特例)

这是没有不确定区域的|i j ωω两分法。假若多类情况2中的ij d 可分解成:

()()()()T

i j i j i j d x d x d x w w x =-=-,则

0ij d >相当于()()i j d x d x >,j i ?≠。这时不存在不确定区域。此时,对M 类情况应有M 个判别函数:

(),1,2,,T

k k d x w x k M ==

即()()i j d x d x >,j i ?≠,,1,2,...i j M =,则

i

x ω∈,也可写成,若

()max{(),1,2,...,}i k d x d x k M ==,则i x ω∈。

该分类的特点是把M 类情况分成M-1个两类问题。 模式分类若可用任一个线性函数来划分,则这些模式就称为线性可分的,否则就是非线性可分的。一旦线性函数的系数wk 被确定,这些函数就可用作模式分类的基础。

对于M 类模式的分类,多类情况1需要M 个判别函数,而多类情况2需要M*(M-1)/2个判别函数,当M 较大时,后者需要更多的判别式(这是多类情况2的一个缺点)。

采用多类情况1时,每一个判别函数都要把一种类别的模式与其余M-1种类别的模式分开,而不是将一种类别的模式仅与另一种类别的模式分开。

由于一种模式的分布要比M-1种模式的分布更为聚集,因此多类情况2对模式是线性可分的可能性比多类情况1更大一些(这是多类情况2的一个优点)。

答(2)广义线性判别函数出发点: ● 线性判别函数简单,容易实现; ● 非线性判别函数复杂,不容易实现;

● 若能将非线性判别函数转换为线性判别函数,则有利于模式分类的实现。

采用广义线性判别函数的概念,可以通过增加维数来得到线性判别,但维数的大量增加会使在低维空间里在解析和计算上行得通的方法在高维空间遇到困难,增加计算的复杂性。所以某些情况下使用非线性判别函数或分段线性判别函数效果更好。

解(3)假设该两类模式是线性可分的,则在三维空间中一个线性平面可以将这两类模式分开,所以判别函数可以写成:

1234()d x w x w x w x w =+++

所以权向量需要4个系数。

对于n 维x 向量,采用r 次多项式,d(x)的权系数w 的项数为:

()!

!!

r

w n r n r N C r n ++==

当r=2,n=3时,

(2)!(2)(1)

102!!2

W n n n N n +++=

== 所以,此时权向量需要10个系数分量。

5. 设一有限态自动机01202({0,1},{,,},,,}A q q q q q δ=,δ定义如下:

021222

011021

(,0),(,0),(,0)(,1),(,1),(,1)q q q q q q q q q q q q δδδδδδ======

试求等价的正则文法,使得L(G)=T(A)。(10’)

解:设由A 得一正则文法(,,),N T G V V P S =,则12{,,}N V S x x =,{0,1}T V =,0S q =

由01(,1)q q δ=,得生成式11S x ??

→ 由02(,0)q q δ=,得生成式20,0S S x ??→??→ 由10(,1)q q δ=,得生成式11x S ??

→ 由12(,0)q q δ=,得生成式1120,0x x x ??

→??→ 由21(,1)q q δ=,得生成式211x x ??→

由22(,0)q q δ=,得生成式2220,0x x x ??

→??→ 对比实例:当扫描字符串1110时,A 按以下状态序列接受该字符串

20

1101110q q q q q ?→??→??→??→?

用对应的正则文法G 推导,得:

111111111110S x S x ????

按有限态自动机确定正则文法

给定一个有限态自动机0(,,,,)A Q q F δ=∑,可确定一个正则文法(,,,)N T G V V P S =,使得L(G) = T(A)。

由0111{,,...,,},n n n Q q q q q q F ++=∈,可确定:121{,,,...,x ,}N n n V S x x x +=,0S q =,

i i x q =,T V =∑。

从δ求G 中的生成式P 可按如下原则: (1) 若(,)i j q a q δ=,则i j x ax →

(2) 若1(,)i n q a q δ+=,则1,i i n x a x ax +→→

6. K-均值算法聚类:K=2,初始聚类中心为12,x x ,数据为:(10’)

12345678910{(0,0),(1,0),(0,1),(1,1),(8,7)(9,7),(8,8),(9,8),(8,9),(9,9)}

x x x x x x x x x x ==========

算法:

第一步:选K 个初始聚类中心,12(1),z (1),...,(1)k z z ,其中括号内的序号为寻找聚类

中心的迭代运算的次序号。可选开始的K 个模式样本的向量值作为初始聚类

中心。

第二步:逐个将需分类的模式样本{}x 按最小距离准则分配给K 个聚类中心中的某一

个(1)j z 。即()min{(),1,2,}j i D k x z k i K =-= ,则()j x S k ∈,其中k 为迭代运算的次序号,第一次迭代1k =,j S 表示第j 个聚类,其聚类中心为

j z 。

第三步:计算各个聚类中心的新的向量值,(1),1,2,...,j z k j K +=

求各聚类域中所包含样本的均值向量:

()

1(1),

1,2,,j j x S k j

z k x j K N ∈+=

=∑

其中j N 为第j 个聚类域j S 中所包含的样本个数。以均值向量作为新的聚类中心,可使如下聚类准则函数最小:

2

()

(1),

1,2,,j j j x S k J x z k j K ∈=

-+=∑

在这一步中要分别计算K 个聚类中的样本均值向量,所以称之为K-均值算法。

第四步:若(1)()j j z k z k +≠,则返回第二步,将模式样本逐个重新分类,重复迭代

运算;

若(1)()j j z k z k +=,则算法收敛,计算结束。

7. 给出两类模式分布,每一列代表一个样本:

1ω:5545654565-----??

=

?-----??

1x

2ω:5565456545??

= ???

2x

试用K-L 变换来做一维特征的提取(12’)。

解:首先将所有样本看作一个整体,求出样本均值向量:

55

11

1155j j ===+=∑∑1j 2j m x x 0

由于均值为0,符合K-L 变换的最佳条件。如果均值不为0,则所有样本要减去均值向量。由于1ω和2ω的样本数相同,所以认为他们的先验概率相同,即:

12()()0.5P P ωω==

求出总体的自相关矩阵R 或协方差矩阵C :

2

125.425(){}2525.4T i i i i R P E x x ω=??

== ???

解特征方程0R I λ-=,求出R 的特征值:

1250.4,0.4λλ==

求出对应于特征值的特征向量i i i R φλφ=:

1211,11φφ??

=

=??-??

选取1λ对应的特征向量作为变换矩阵Φ,由T

=Φy x 得出变换后的一维模式:

:?= ?1x ' 2ω

:=2x '

8. 用第二类势函数的算法进行分类(10’)

选择指数型势函数,取α=1,在二维情况下势函数为:

]

)()[(2222112

),(k k k

x x x x x x k e

e

x x K -+----==

这里:ω1类为x ①=(0 0)T , x ②=(2 0)T ;ω2类为x ③=(1 1)T , x ④=(1 -1)T

解:可以看出,这两类模式是线性不可分的。算法步骤如下: 第一步:取(1)1(0,0)T

x ω=∈,则

22221(1)1212()(,)exp{[(0)(0)]}exp[()]K x K x x x x x x ==--+-=-+

第二步:取(2)1(2,0)T

x ω=∈

因exp[(40)]exp(4)0-+=->, 故2

2

2112()()exp[()]K x K x x x ==-+

第三步:取(3)2(1,1)T

x ω=∈

因exp[(11)]exp(2)0-+=->, 故

222232(3)1212()()(,)exp[()]exp{[(1)(1)]}K x K x K x x x x x x =-=-+---+-

……

后面同理,就是不断将样本带入,如果分类正确,则势函数保持不变,即:

1()()k k K x K x +=

如果分类错误,则有两种情况: ● (k 1)1(k 1),()0k x K x ω++∈≤,则1(k 1)()()(,)k k K x K x K x x ++=+

(k 1)2(k 1),()0k x K x ω++∈≥,则1(k 1)()()(,)k k K x K x K x x ++=-

经过迭代,全部模式都已正确分类,因此算法收敛于判别函数。 得出:]

)2[(]

)1()1[(]

)1()1[()

(2

221222122212221)(x x x x x x x x e

e

e

e

x d +--++---+--+-+--=

9. 有一种病,正常为1ω,不正常为2ω,已知:

12()0.9,()0.1P P ωω==

现对某人进行检查,结果为x ,由概率曲线查出:

12(|)0.2,(|)0.4P x P x ωω== 风险代价矩阵为:

11

1221

220610L

L L L L ????

==??????

?? 对该检查者进行判决:

(1) 用贝叶斯最小错误概率判别,求出判决函数和决策分界面。 (2) 用贝叶斯最小风险判别,求出判别函数和决策分界面。

解(1): 111222(|)()(|)(|)()(|)

P x P P x P x P P x ωωωωωω∝∝

由于

1221(|)()11

(|)2()9

P x P l P x P ωωωω=

=>=

所以1x ω∈。 解(2): 2

1

()(|)(),1,2j ij i i i r x L P x P j ωω===∑

由于

122122211211(|)()11

'(|)2()54

P x P L L l P x P L L ωωωω-=

=>=-

所以1x ω∈。

10. 阐述误差反传算法(BP 算法)的原理,并写出其训练步骤。

答(1):

BP 算法推算过程:

当加入第k 个输入时,隐蔽层h 结点的输入加权和为:

k k h ih i i

s w x =∑

如果令第一层的加权矩阵为1W ,则还可以表示为:

1k

T k h =s W x

相应节点的输出为:

()()k k

k h h ih i i

y F s F w x ==∑

写成矩阵形式为:

1()()k k

T k h h F F ==y s W x

同样,输出层j 结点的输入加权和为:

()k k k

j

hj h hj ih i h

h

i

s w y w F w x ==∑∑∑ 令第二次的加权矩阵为2W ,则可以写成:

221()k T k T T k

j h F ==s W y W W x

相应点的输出:

()()[()]k k k k

j j hj h hj ih i h

h

i

y F s F w y F w F w x ===∑∑∑

写成矩阵形式为:

21(())k T T k

j F F =y W W x

这里,各结点的阈值等效为一个连接的加权0h w θ=或0j w ,这些连接由各结点连到具有固定值-1的偏置结点,其连接加权也是可调的,同其它加权一样参与调节过程。

误差函数为:

∑∑∑∑-=-=

j k h i

k i

ih hj k j j k k j k j x w F w F T y T W E ,2

,2]})([{21)(21)( 为了使误差函数最小,用梯度下降法求得最优的加权,权值先从输出层开始修正,然

后依次修正前层权值,因此含有反传的含义。根据梯度下降法,由隐蔽层到输出层的连接的加权调节量为:

()()k k k k k k

hj j j j h j h k k

hj E w T y F s y y w η

ηηδ?'?=-=-=?∑∑

其中k j δ为输出结点的误差信号:

()()()k k k k k k

j j j j j j F s T y F s δ''=-=?

k k k j j j T y ?=-

在BP 算法中常采用Sigmoid 函数:

1()1s

y F s e -==

+

其导数为:'()()(1())(1)F s F s F s y y =-=- 对应的误差为:(1)()k

k k k k

j

j j j j y y T y δ=--

对于输入层到隐蔽层结点连接的加权修正量ih w ?,必须考虑将()E W 对ih w 求导,因此利用分层链路法,有:

,,{()()()}

()k

k k k k k h

ih j j j hj h i k k k j

ih h ih k

k k k k j

hj h

i

h i

k j

k

y E E w T y F s w F s x w y w w F s x x

ηηηηδηδ???''?=-=-?=-????'==∑∑∑∑

其中:

()()k k k k

k h h hj j h h j

F s w F s δδ''==?∑

k k

h

hj j j

w δ?=∑ 这样就可以根据hj w ?和ih w ?分别调整输出层和隐层的权值了。 BP 训练算法实现步骤

准备:设网络具有m 层,m j y 表示第m 层中第j 个结点的输出,0

j y (零层输出)等于j x ,即第j 个输入。m

ij w 表示从1

m i

y -到m

j y 的连接加权。这里,m 代表层号,而不是向量的类号。

1.(初始化加权矩阵)将各加权随机置为小的随机数。可用均匀分布的随机数,以保证网络不被大的加权值所饱和。

2.(输入数据)从训练数据组中选一数据对(,)k k

x T ,将输入向量加到输入层(m=0),使得对所有端点i :0k i i y x =,k 表示向量类号。

3.(输出预测数据)信号通过网络向前传播,即利用关系式:

1

()()m m m m j j ij i

i

y F s F w y -==∑ 计算从第一层开始的各层内每个结点i 的输出m

j y ,直到输出层的每个结点的输出计算完为止。

4.(计算输出层误差)计算输出层每个结点的误差值,对Sigmod 函数:

()()(1)()m m k m m m k m

j j j j j j j j F s T y y y T y δ'=-=--

它是由实际输出和要求目标值之差获得。

5.(误差反传)计算前面各层各结点的误差值

11

()m m m j j

ji i i

F s w δδ--'=∑ 这里逐层计算反传误差,直到将每层内每个结点的误差值算出为止。

6.(修改权值)利用加权修正公式:

1m m m ij j i w y ηδ-?= new old ij ij ij w w w =+?

修正所有连接权。一般0.01~1η=,称为训练速率系数。

7.(运算至权值收敛)返回第2步,为下一个输入向量重复上述步骤,直至网络收敛。

模式识别试题答案

模 式 识 别 非 学 位 课 考 试 试 题 考试科目: 模式识别 考试时间 考生姓名: 考生学号 任课教师 考试成绩 一、简答题(每题6分,12题共72分): 1、 监督学习和非监督学习有什么区别? 参考答案:当训练样本的类别信息已知时进行的分类器训练称为监督学习,或者由教师示范的学习;否则称为非监督学习或者无教师监督的学习。 2、 你如何理解特征空间?表示样本有哪些常见方法? 参考答案:由利用某些特征描述的所有样本组成的集合称为特征空间或者样本空间,特征空间的维数是描述样本的特征数量。描述样本的常见方法:矢量、矩阵、列表等。 3、 什么是分类器?有哪些常见的分类器? 参考答案:将特征空中的样本以某种方式区分开来的算法、结构等。例如:贝叶斯分类器、神经网络等。 4、 进行模式识别在选择特征时应该注意哪些问题? 参考答案:特征要能反映样本的本质;特征不能太少,也不能太多;要注意量纲。 5、 聚类分析中,有哪些常见的表示样本相似性的方法? 参考答案:距离测度、相似测度和匹配测度。距离测度例如欧氏距离、绝对值距离、明氏距离、马氏距离等。相似测度有角度相似系数、相关系数、指数相似系数等。 6、 你怎么理解聚类准则? 参考答案:包括类内聚类准则、类间距离准则、类内类间距离准则、模式与类核的距离的准则函数等。准则函数就是衡量聚类效果的一种准则,当这种准则满足一定要求时,就可以说聚类达到了预期目的。不同的准则函数会有不同的聚类结果。 7、 一种类的定义是:集合S 中的元素x i 和x j 间的距离d ij 满足下面公式: ∑∑∈∈≤-S x S x ij i j h d k k )1(1 ,d ij ≤ r ,其中k 是S 中元素的个数,称S 对于阈值h ,r 组成一类。请说明, 该定义适合于解决哪一种样本分布的聚类? 参考答案:即类内所有个体之间的平均距离小于h ,单个距离最大不超过r ,显然该定义适合团簇集中分布的样本类别。 8、 贝叶斯决策理论中,参数估计和非参数估计有什么区别? 参考答案:参数估计就是已知样本分布的概型,通过训练样本确定概型中的一些参数;非参数估计就是未知样本分布概型,利用Parzen 窗等方法确定样本的概率密度分布规律。 9、 基于风险的统计贝叶斯决策理论中,计算代价[λij ]矩阵的理论依据是什么?假设这个矩阵是 M ?N ,M 和N 取决于哪些因素?

模式识别与机器学习期末考查试题及参考答案(20210221222717)

模式识别与机器学习期末考查 试卷 研究生姓名:入学年份:导师姓名:试题1:简述模式识别与机器学习研究的共同问题和各自的研究侧重点。 答:(1)模式识别是研究用计算机来实现人类的模式识别能力的一门学科,是指对表征事物或现象的各种形式的信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。主要集中在两方面,一是研究生物体(包括人)是如何感知客观事物的,二是在给定的任务下,如何用计算机实现识别的理论和方法。机器学习则是一门研究怎样用计算机来模拟或实现人类学习活动的学科,是研究如何使机器通过识别和利用现有知识来获取新知识和新技能。主要体现以下三方面:一是人类学习过程的认知模型;二是通用学习算法;三是构造面向任务的专用学习系统的方法。两者关心的很多共同问题,如:分类、聚类、特征选择、信息融合等,这两个领域的界限越来越模糊。机器学习和模式识别的理论和方法可用来解决很多机器感知和信息处理的问题,其中包括图像/ 视频分析(文本、语音、印刷、手写)文档分析、信息检索和网络搜索等。 (2)机器学习和模式识别是分别从计算机科学和工程的角度发展起来的,各自的研究侧重点也不同。模式识别的目标就是分类,为了提高分类器的性能,可能会用到机器学习算法。而机器学习的目标是通过学习提高系统性能,分类只是其最简单的要求,其研究更

侧重于理论,包括泛化效果、收敛性等。模式识别技术相对比较成熟了,而机器学习中一些方法还没有理论基础,只是实验效果比较好。许多算法他们都在研究,但是研究的目标却不同。如在模式识别中研究所关心的就是其对人类效果的提高,偏工程。而在机器学习中则更侧重于其性能上的理论证明。试题2:列出在模式识别与机器学习中的常用算法及其优缺点。答:(1)K 近邻法算法作为一种非参数的分类算法,它已经广泛应用于分类、 回归和模式识别等。在应用算法解决问题的时候,要注意的两个方面是样本权重和特征权重。 优缺点:非常有效,实现简单,分类效果好。样本小时误差难控制,存储所有样本,需要较大存储空间,对于大样本的计算量大。(2)贝叶斯决策法 贝叶斯决策法是以期望值为标准的分析法,是决策者在处理 风险型问题时常常使用的方法。 优缺点:由于在生活当中许多自然现象和生产问题都是难以完全准确预测的,因此决策者在采取相应的决策时总会带有一定的风险。贝叶斯决策法就是将各因素发生某种变动引起结果变动的概率凭统计资料或凭经验主观地假设,然后进一步对期望值进行分析,由于此概率并不能证实其客观性,故往往是主观的和人为的概率,本身带有一定的风险性和不肯定性。虽然用期望的大小进行判断有一些风险,但仍可以认为贝叶斯决策是一种兼科学性和实效性于一身的比较完善的用于解决风险型决策问题的方法,在实际中能够广泛应

人工智能期末试题及答案完整版

xx学校 2012—2013学年度第二学期期末试卷 考试课程:《人工智能》考核类型:考试A卷 考试形式:开卷出卷教师: 考试专业:考试班级: 一单项选择题(每小题2分,共10分) 1.首次提出“人工智能”是在(D )年 A.1946 B.1960 C.1916 D.1956 2. 人工智能应用研究的两个最重要最广泛领域为:B A.专家系统、自动规划 B. 专家系统、机器学习 C. 机器学习、智能控制 D. 机器学习、自然语言理解 3. 下列不是知识表示法的是 A 。 A:计算机表示法B:“与/或”图表示法 C:状态空间表示法D:产生式规则表示法 4. 下列关于不确定性知识描述错误的是 C 。 A:不确定性知识是不可以精确表示的 B:专家知识通常属于不确定性知识 C:不确定性知识是经过处理过的知识 D:不确定性知识的事实与结论的关系不是简单的“是”或“不是”。 5. 下图是一个迷宫,S0是入口,S g是出口,把入口作为初始节点,出口作为目标节点,通道作为分支,画出从入口S0出发,寻找出口Sg的状态树。根据深度优先搜索方法搜索的路径是 C 。 A:s0-s4-s5-s6-s9-sg B:s0-s4-s1-s2-s3-s6-s9-sg C:s0-s4-s1-s2-s3-s5-s6-s8-s9-sg D:s0-s4-s7-s5-s6-s9-sg 二填空题(每空2分,共20分) 1.目前人工智能的主要学派有三家:符号主义、进化主义和连接主义。 2. 问题的状态空间包含三种说明的集合,初始状态集合S 、操作符集合F以及目标

状态集合G 。 3、启发式搜索中,利用一些线索来帮助足迹选择搜索方向,这些线索称为启发式(Heuristic)信息。 4、计算智能是人工智能研究的新内容,涉及神经计算、模糊计算和进化计算等。 5、不确定性推理主要有两种不确定性,即关于结论的不确定性和关于证据的不确 定性。 三名称解释(每词4分,共20分) 人工智能专家系统遗传算法机器学习数据挖掘 答:(1)人工智能 人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等 (2)专家系统 专家系统是一个含有大量的某个领域专家水平的知识与经验智能计算机程序系统,能够利用人类专家的知识和解决问题的方法来处理该领域问题.简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统 (3)遗传算法 遗传算法是一种以“电子束搜索”特点抑制搜索空间的计算量爆炸的搜索方法,它能以解空间的多点充分搜索,运用基因算法,反复交叉,以突变方式的操作,模拟事物内部多样性和对环境变化的高度适应性,其特点是操作性强,并能同时避免陷入局部极小点,使问题快速地全局收敛,是一类能将多个信息全局利用的自律分散系统。运用遗传算法(GA)等进化方法制成的可进化硬件(EHW),可产生超出现有模型的技术综合及设计者能力的新颖电路,特别是GA独特的全局优化性能,使其自学习、自适应、自组织、自进化能力获得更充分的发挥,为在无人空间场所进行自动综合、扩展大规模并行处理(MPP)以及实时、灵活地配置、调用基于EPGA的函数级EHW,解决多维空间中不确定性的复杂问题开通了航向 (4)机器学习 机器学习(Machine Learning)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎 (5)数据挖掘 数据挖掘是指从数据集合中自动抽取隐藏在数据中的那些有用信息的非平凡过程,这些信息的表现形式为:规则、概念、规律及模式等。它可帮助决策者分析历史数据及当前数据,并从中发现隐藏的关系和模式,进而预测未来可能发生的行为。数据挖掘的

模式识别试题及总结

一、填空与选择填空(本题答案写在此试卷上,30分) 1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择 和模式分类。 2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。 3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。 (1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法 4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。 (1)距离测度(2)模糊测度(3)相似测度(4)匹配测度 5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。 (1)(2) (3) (4) 6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。 (1)二维空间(2)一维空间(3)N-1维空间 7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。 (1)感知器算法(2)H-K算法(3)积累位势函数法 8、下列四元组中满足文法定义的有(1)(2)(4)。 (1)({A, B}, {0, 1}, {A→01, A→ 0A1 , A→ 1A0 , B→BA , B→ 0}, A) (2)({A}, {0, 1}, {A→0, A→ 0A}, A) (3)({S}, {a, b}, {S → 00S, S → 11S, S → 00, S → 11}, S) (4)({A}, {0, 1}, {A→01, A→ 0A1, A→ 1A0}, A) 9、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定的 类别数目))。 10、欧式距离具有( 1、2 );马式距离具有(1、2、3、4 )。 (1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性 11、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的 正(负)半空间中;绝对值正比于样本点到判别界面的距离。)。 12、感知器算法1。 (1)只适用于线性可分的情况;(2)线性可分、不可分都适用。

中科大模式识别试题

中国科学技术大学模式识别试题 (2012年春季学期) 姓名:学号:成绩: 一、填空与选择填空(本题答案写在此试卷上,30分) 1、模式识别系统的基本构成单元包括:、 和。 2、统计模式识别中描述模式的方法一般使用;句法模式识别中模式描述方法一般 有、、。 3、聚类分析算法属于;判别域代数界面方程法属于。 (1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法 4、若描述模式的特征量为0-1二值特征量,则一般采用进行相似性度量。 (1)距离测度(2)模糊测度(3)相似测度(4)匹配测度 5、下列函数可以作为聚类分析中的准则函数的有。 (1) (4) 6、Fisher线性判别函数的求解过程是将N维特征矢量投影在中进行。 (1)二维空间(2)一维空间(3)N-1维空间 7、下列判别域界面方程法中只适用于线性可分情况的算法有;线性可分、不可分都适用的 有。 (1)感知器算法(2)H-K算法(3)积累位势函数法 8、下列四元组中满足文法定义的有。 (1)({A, B}, {0, 1}, {A→01, A→ 0A1 , A→ 1A0 , B→BA , B→ 0}, A) (2)({A}, {0, 1}, {A→0, A→ 0A}, A) (3)({S}, {a, b}, {S → 00S, S → 11S, S → 00, S → 11}, S) (4)({A}, {0, 1}, {A→01, A→ 0A1, A→ 1A0}, A) 二、(15分)简答及证明题 (1)影响聚类结果的主要因素有那些? (2)证明马氏距离是平移不变的、非奇异线性变换不变的。 (3)画出对样本集 ω1:{(0,0,0)T, (1,0,0)T, (1,0,1)T, (1,1,0)T,} PDF 文件使用 "pdfFactory Pro" 试用版本创建https://www.wendangku.net/doc/0117597328.html,

【模式识别】期末考试复习资料

题型: 1.填空题5题 填空题 2.名词解释4题 3.问答题4题 4.计算作图题3题 5.综合计算题1题 备注1:没有整理第一章和第六章,老师说不考的 备注2:非线性判别函数相关概念P69 概率相关定义、性质、公式P83以后 最小错误率贝叶斯决策公式P85 最小风险贝叶斯P86 正态贝叶斯P90 综合计算有可能是第六次作业 一、填空题 物以类聚人以群分体现的是聚类分析的基本思想。 模式识别分类:1.从实现方法来分模式识别分为监督分类和非监督分类;2.从理论上来分,有统计模式识别,统计模式识别,模糊模式识别,神经网络模式识别法 聚类分析是按照不同对象之间的差异,根据距离函数的规律做模式分类的。 模式的特性:可观察性、可区分性、相似性 模式识别的任务:一是研究生物体(包括人)是如何感知对象的,二是如何用计算机实现模式识别的理论和方法。 计算机的发展方向:1.神经网络计算机--模拟人的大脑思维;2.生物计算机--运用生物工程技术、蛋白分子作芯片; 3.光计算机--用光作为信息载体,通过对光的处理来完成对信息的处理。 训练学习方法:监督学习、无监督学习(无先验知识,甚至类别数也未知)。 统计模式识别有:1.聚类分析法(非监督);2.判决函数法/几何分类法(监督);3.基于统计决策的概率分类法 - 以模式集在特征空间中分布的类概率密度函数为基础,对总体特征进行研究,以取得分类的方法 数据的标准化目的:消除各个分量之间数值范围大小对算法的影响 模式识别系统的基本构成:书P7 聚类过程遵循的基本步骤:特征选择;近邻测度;聚类准则;聚类算法;结果验证;结果判定。 相似测度基础:以两矢量的方向是否相近作为考虑的基础,矢量长度并不重要。 确定聚类准则的两种方式:阈值准则,函数准则 基于距离阈值的聚类算法——分解聚类:近邻聚类法;最大最小距离聚类法 类间距离计算准则:1)最短距离法2)最长距离法3)中间距离法4)重心法5)类平均距离法6)离差平方和法P24 系统聚类法——合并的思想 用于随机模式分类识别的方法,通常称为贝叶斯判决。 BAYES 决策常用的准则:最小错误率;最小风险 错误率的计算或估计方法:①按理论公式计算;②计算错误率上界;③实验估计。

清华大学模式识别往年考题2

模式识别张长水2007.7.1 14:00-16:00 1 (15分)两类分类问题,P(w1)=1/4,P(w2)=3/4。样本有两个特征,分别是x和y。两类?的概率密度函数:w1,在0<=x<=3、0<=y<=3中均匀分布,其余为0;w2,在2<=x<=5、1<=y<=7 中均匀分布,其余为0。请设计做小错误率贝叶斯分类器,并计算误分率。 2 (20分)支持向量机通过二次最优化得到支持向量。现在有一个两类分类问题,共有N 个 样本,样本有d维特征空间,样本集合是线性可分的。试使用遗传算法求解支持向量,说明算法步骤和使用的遗传算子。使用遗传算法求解支持向量有什么优缺点? 3 (20分)两类分类问题,有3个特征x,y,z,共有N个样本。通过经验知道将3个特征进行加权相加得到的特征将具有更好的分类性能,但是不知道如何得到各个特征的权重。试回答? 如何得到各个特征的权重。给出必要的计算和推导过程。 4 (15分)使用多级聚类算法对下面的样本进行聚类,使用最近距离量度。给出计算过程,多级聚类树。问应该分成几类,为什么?举例说明使用最近距离量度聚类和使用最远距离量度聚类各自的优缺点。 (1,0) (2,0) (0,2) (1,3) (0,5) 5 (20分)距离是模式识别中的重要概念,试说明贝叶斯分类器、近邻法、Fisher投影法、C均值算法是否受不同距离量度选择的影响。如果不是,说明原因;如果是,举例说明受什么影响。 6 (10分)一个袋子中装有红、绿、蓝三种颜色的球,采用有放回的取球方法,取出N个球 ,其中有n1个红色球、n2个绿色球和n3个蓝色球的概率为 p(n1,n2,n3)=(N!/(n1!n2!n3!))*p1^n1*p2^n2*p3^n3 其中n1+n2+n3=N,p1+p2+p3=1 已知概率模型如下:p1=1/4 p2=1/4+p/4 p3=1/2-p/4 如果一个人是红绿色盲,分不清红色球和绿色球,那么他只能知道他取了m1=n1+n2个红/绿 球,和m2=n3个蓝色球。试通过这些数据估计概率模型中的p,并估计红色球和绿色球的数? 。 -------------------------------- 不出意外的话应该是在清华最后一门考试了,复习的时候又极其痛苦,500+张ppt, 很多公式要理解要背,所以得纪念一下,粗略回忆一下今天考的内容,给后面的同

模式识别复习重点总结

1.什么是模式及模式识别?模式识别的应用领域主要有哪些? 模式:存在于时间,空间中可观察的事物,具有时间或空间分布的信息; 模式识别:用计算机实现人对各种事物或现象的分析,描述,判断,识别。 模式识别的应用领域:(1)字符识别;(2) 医疗诊断;(3)遥感; (4)指纹识别 脸形识别;(5)检测污染分析,大气,水源,环境监测; (6)自动检测;(7 )语声识别,机器翻译,电话号码自动查询,侦听,机器故障判断; (8)军事应用。 2.模式识别系统的基本组成是什么? (1) 信息的获取:是通过传感器,将光或声音等信息转化为电信息; (2) 预处理:包括A\D,二值化,图象的平滑,变换,增强,恢复,滤波等, 主要指图 象处理; (3) 特征抽取和选择:在测量空间的原始数据通过变换获得在特征空间最能反映分类 本质的特征; (4) 分类器设计:分类器设计的主要功能是通过训练确定判决规则,使按此类判决规 则分类时,错误率最低。把这些判决规则建成标准库; (5) 分类决策:在特征空间中对被识别对象进行分类。 3.模式识别的基本问题有哪些? (1)模式(样本)表示方法:(a )向量表示;(b )矩阵表示;(c )几何表示;(4)基元(链码)表示; (2)模式类的紧致性:模式识别的要求:满足紧致集,才能很好地分类;如果不满足紧致集,就要采取变换的方法,满足紧致集 (3)相似与分类;(a)两个样本x i ,x j 之间的相似度量满足以下要求: ① 应为非负值 ② 样本本身相似性度量应最大 ③ 度量应满足对称性 ④ 在满足紧致性的条件下,相似性应该是点间距离的 单调函数 (b) 用各种距离表示相似性 (4)特征的生成:特征包括:(a)低层特征;(b)中层特征;(c)高层特征 (5) 数据的标准化:(a)极差标准化;(b)方差标准化 4.线性判别方法 (1)两类:二维及多维判别函数,判别边界,判别规则 二维情况:(a )判别函数: ( ) (b )判别边界:g(x)=0; (c n 维情况:(a )判别函数: 也可表示为: 32211)(w x w x w x g ++=为坐标向量为参数,21,x x w 12211......)(+++++=n n n w x w x w x w x g X W x g T =)(为增值模式向量。 ,=为增值权向量,T n n T n n x x x x X w w w w W )1,...,,(),,...,,(21121+=+

2013年模式识别考试题和答案

2013–2014 学年度 模式识别 课程期末考试试题 一、计算题 (共20分) 在目标识别中,假定类型1ω为敌方目标,类型2ω为诱饵(假目标),已知先验概率P (1ω)=0.2和P (2ω)=0.8,类概率密度函数如下: ??? ??≤≤-<≤=其它021210)(1x x x x x p ω ?? ? ??≤≤-<≤=其它0323211-)(2x x x x x p ω 1、求贝叶斯最小误判概率准则下的判决域,并判断样本x =1.5属于哪一类; 2、求总错误概率p (e ); 3、假设正确判断的损失λ11=λ22=0,误判损失分别为λ12和λ21,若采用最小损失判决准则,λ12和λ21满足怎样的关系时,会使上述对x =1.5的判断相反? 解:(1)应用贝叶斯最小误判概率准则如果 )()()(2112ωω=x p x p x l <>)() (12ωωP P 则判 ???ωω∈21 x (2分) 得 l 12(1.5)=1 < )() (12ωωP P =4,故 x=1.5属于ω2 。(2分) (2)P(e)= 212121)()()(εω+εω=P P e P ??ΩΩωω+ωω=1 2 )()()()(2211x d x p P x d x p P = dx x x x ??-+- 1.2 1 2 1.2 10.8d )2(0.2)(=0.08 (算式正确2分,计算错误扣1~2分) (3) 两类问题的最小损失准则的似然比形式的判决规则为:

如果 ) )(())(()()(111212221221λ-λωλ-λω< >ωωP P x p x p 则判 ???ωω∈21 x 带入x=1.5得到 λ12≥4λ21 二、证明题(共20分) 设p(x)~N (μ,σ),窗函数?(x)~N (0,1),试证明Parzen 窗估计1 1 ?()( )N i N i N N x x p x Nh h ?=-= ∑ 有如下性质:22 ?[()](,)N N E p x N h μσ+ 。 证明:(1)(为书写方便,以下省略了h N 的下标N ) 22 22 22 2222222222 222211()()()()]22111exp[()()]2221111exp{[()2()]}221 1111exp[()]exp{()[2222y x y x y p y dy dy h h y x y dy h x x y y dy h h h x y h h μ?σμπσσ μμπσσσσ μπσσσ∞ ∞ -∞ -∞∞ -∞∞ -∞ ∞ -∞---=----=--= -+-+++=-+-+-? ??? ?2222()]}x h y dy h σμσ++ 222222 2222222222221 1()exp[(exp()22()2 11()exp[22()1()]2()x x h y dy h h h x h x h μσμπσσσσμπσσμσ∞ +=-+--+-=-+-=-+? (1-1) 121211?[()][()](,,...,)N i N N N i x x E p x p x x x dx dx dx Nh h ?∞ =-∞ -=∑??? 因为样本独立 121211?[()][()]()()...()N i N N N i x x E p x p x p x p x dx dx dx Nh h ?∞ =-∞ -=∑???

2017年北京邮电大学模式识别期末考试试题

北京邮电大学2016——2017学年第二学期 《模式识别》期末考试试题(A卷) ①写出后验概率的表达式,描述它和先验概率的区别。 ②写出线性判别函数的表达式,画图指出参数的物理意义,描述它和神经元模型的联系。 ③为什么说SVM是最优线性分类器,它相比感知器算法的优点是? ④Logistic Regression的优化表达式,它的功能与SVM的作用有什么区别?

⑤单层神经网络有什么局限性?如何将其扩展处理复杂的非线性分类问题? ⑥多层神经网络的主流参数学习算法是什么?试用个公式说明参数学习的原理。 ⑦针对图像处理和识别设计的神经网络是什么?为什么它的参数数量远小于全连接网络? ⑧主成分分析获得的特征有什么特点?主成分投影基向量与博里叶变换基函数有什么区别? ⑨当误差数值的符合什么分布时,我们常用的均方误差是理论最优的?为什么? ⑩当需要衡量两个分布的误差时,一般采用什么物理量作为损失函数?试写出该函数形式。

二、技术应用速答题(每题答案不超过10字,1分*10): ①根据用户画像(上网特征)预测用户购买某类商品的概准,用什么方法? ②为了获得两类分类任务中最靠谱的投影特征,用什么方法? ③两类特征的类条件密度函数未知,对测试样本分类并求出后验概率,用什么方法? ④在训练样本数量较少的两类分类任务中,一般认为什么方法是最靠谱的? ⑤在高维数据分析任务中,什么方法是最常用的数据进行降维方法? ⑥系统要对多类样本进行分类,而手上的分类器只能处理两类,如何扩展? ⑦当采用线性SVM分类器的分类效果较差,应该首先试验什么改进分类器? ⑧我们常用的正态分布的均值和方差公式,是用什么算法估计出来的?. ⑨得到一批无标记(类别标签的)数据,用什么算法可以对其进行自动“分类” ⑩深度学习或者深度神经网络中的“深度”是指

数字图像处理期末复习资料考试要点老师整理

第一章数字图像处理概论 *图像是对客观存在对象的一种相似性的、生动性的描述或写真。 *模拟图像 空间坐标和明暗程度都是连续变化的、计算机无法直接处理的图像 *数字图像 空间坐标和灰度均不连续的、用离散的数字(一般整数)表示的图像(计算机能处理)。是图像的数字表示,像素是其最小的单位。 * 数字图像处理(Digital Image Processi ng ) 利用计算机对数字图像进行(去除噪声、增强、复原、分割、特征提取、识别等)系列操作,从而获得某种预期的结果的技术。(计算机图像处理) *数字图像处理的特点(优势) (1)处理精度高,再现性好。(2)易于控制处理效果。(3)处理的多样性。(4)图像数据量庞大。(5)图像处理技术综合性强。 *数字图像处理的目的 (1)提高图像的视感质量,以达到赏心悦目的目的 a. 去除图像中的噪声; b. 改变图像的亮度、颜色; c. 增强图像中的某些成份、抑制某些成份; d. 对图像进行几何变换等,达到艺术效果; (2)提取图像中所包含的某些特征或特殊信息。 a.模式识别、计算机视觉的预处理 (3)对图像数据进行变换、编码和压缩,以便于图像的存储和传输。? ?数字图像处理的主要研究内容 (1)图像的数字化 a. 如何将一幅光学图像表示成一组数字,既不失真又便于计算机分析处理 b. 主要包括的是图像的采样与量化 (2*)图像的增强 a.加强图像的有用信息,消弱干扰和噪声 (3)图像的恢复 a.把退化、模糊了的图像复原。模糊的原因有许多种,最常见的有运动模糊,散焦模糊等 (4*)图像的编码 a.简化图像的表示,压缩表示图像的数据,以便于存储和传输。 (5)图像的重建 a.由二维图像重建三维图像(如CT (6)图像的分析

模式识别v试题库.doc

《模式识别》试题库 一、基本概念题 1.1 模式识别的三大核心问题是:、、。 1.2、模式分布为团状时,选用聚类算法较好。 1.3 欧式距离具有。马式距离具有。 (1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性 1.4 描述模式相似的测度有:。 (1)距离测度(2)模糊测度(3)相似测度(4)匹配测度 1.5 利用两类方法处理多类问题的技术途径有:(1);(2); (3)。其中最常用的是第个技术途径。 1.6 判别函数的正负和数值大小在分类中的意义 是:, 。 1.7 感知器算法。 (1)只适用于线性可分的情况;(2)线性可分、不可分都适用。 1.8 积累位势函数法的判别界面一般为。 (1)线性界面;(2)非线性界面。 1.9 基于距离的类别可分性判据有:。 (1) 1 [] w B Tr S S - (2) B W S S (3) B W B S S S + 1.10 作为统计判别问题的模式分类,在()情况下,可使用聂曼-皮尔逊判决准则。 1.11 确定性模式非线形分类的势函数法中,位势函数K(x,x k)与积累位势函数K(x)的关系为 ()。 1.12 用作确定性模式非线形分类的势函数法,通常,两个n维向量x和x k的函数K(x,x k)若同时满足下列三个条件,都可作为势函数。 ①();

②( ); ③ K(x,x k )是光滑函数,且是x 和x k 之间距离的单调下降函数。 1.13 散度J ij 越大,说明ωi 类模式与ωj 类模式的分布( )。当ωi 类模式与ωj 类模式的分布相同时,J ij =( )。 1.14 若用Parzen 窗法估计模式的类概率密度函数,窗口尺寸h1过小可能产生的问题是( ),h1过大可能产生的问题是( )。 1.15 信息熵可以作为一种可分性判据的原因 是: 。 1.16作为统计判别问题的模式分类,在( )条件下,最小损失判决规则与最小错误判决规则是等价的。 1.17 随机变量l(x ρ)=p( x ρ|ω1)/p( x ρ|ω2),l( x ρ)又称似然比,则E {l( x ρ)|ω2}= ( )。在最小误判概率准则下,对数似然比Bayes 判决规则为( )。 1.18 影响类概率密度估计质量的最重要因素是 ( )。 1.19 基于熵的可分性判据定义为 )] |(log )|([1 x P x P E J i c i i x H ρ ρωω∑=-=,J H 越( ),说明模式的 可分性越强。当P(ωi | x ρ) =( )(i=1,2,…,c)时,J H 取极大值。 1.20 Kn 近邻元法较之于Parzen 窗法的优势在于 ( )。 上述两种算法的共同弱点主要是( )。 1.21 已知有限状态自动机Af=(∑,Q ,δ,q0,F),∑={0,1};Q={q0,q1}; δ:δ(q0,0)= q1,δ(q0,1)= q1,δ(q1,0)=q0,δ(q1,1)=q0;q0=q0;F={q0}。现有输入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,试问,用Af 对上述字符串进行分类的结果为( )。 1.22 句法模式识别中模式描述方法有: 。 (1)符号串 (2)树 (3)图 (4)特征向量

中科院-模式识别考题总结(详细答案)

1.简述模式的概念及其直观特性,模式识别的分类,有哪几种方法。(6’) 答(1):什么是模式?广义地说,存在于时间和空间中可观察的物体,如果我们可以区别它们是否相同或是否相似,都可以称之为模式。 模式所指的不是事物本身,而是从事物获得的信息,因此,模式往往表现为具有时间和空间分布的信息。 模式的直观特性:可观察性;可区分性;相似性。 答(2):模式识别的分类: 假说的两种获得方法(模式识别进行学习的两种方法): ●监督学习、概念驱动或归纳假说; ●非监督学习、数据驱动或演绎假说。 模式分类的主要方法: ●数据聚类:用某种相似性度量的方法将原始数据组织成有意义的和有用的各种数据 集。是一种非监督学习的方法,解决方案是数据驱动的。 ●统计分类:基于概率统计模型得到各类别的特征向量的分布,以取得分类的方法。 特征向量分布的获得是基于一个类别已知的训练样本集。是一种监督分类的方法, 分类器是概念驱动的。 ●结构模式识别:该方法通过考虑识别对象的各部分之间的联系来达到识别分类的目 的。(句法模式识别) ●神经网络:由一系列互相联系的、相同的单元(神经元)组成。相互间的联系可以 在不同的神经元之间传递增强或抑制信号。增强或抑制是通过调整神经元相互间联 系的权重系数来(weight)实现。神经网络可以实现监督和非监督学习条件下的分 类。 2.什么是神经网络?有什么主要特点?选择神经网络模式应该考虑什么因素? (8’) 答(1):所谓人工神经网络就是基于模仿生物大脑的结构和功能而构成的一种信息处 理系统(计算机)。由于我们建立的信息处理系统实际上是模仿生理神经网络,因此称它为人工神经网络。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。 人工神经网络的两种操作过程:训练学习、正常操作(回忆操作)。 答(2):人工神经网络的特点: ●固有的并行结构和并行处理; ●知识的分布存储; ●有较强的容错性; ●有一定的自适应性; 人工神经网络的局限性: ●人工神经网络不适于高精度的计算; ●人工神经网络不适于做类似顺序计数的工作; ●人工神经网络的学习和训练往往是一个艰难的过程; ●人工神经网络必须克服时间域顺序处理方面的困难; ●硬件限制; ●正确的训练数据的收集。 答(3):选取人工神经网络模型,要基于应用的要求和人工神经网络模型的能力间的 匹配,主要考虑因素包括:

【模式识别】期末考试试卷02

《模式识别》期末考试试题( A ) 一、填空题( 15 个空,每空 2 分,共 30 分) 1 .基于机器学习的模式识别系统通常由两个过程组成 , 即( )和分类判决。 2 .统计模式识别把观察对象表达为一个随机向量 (即特征向量 ), 将 ( ) 表达为由有穷或无穷个具有相似数值特性的 模式组成的集合。 3 .特征一般有两种表达方法 : (1)将特征表达为 ( ); (2)将特征表达为基元。 4 .特征提取是指采用变换或映射实现由模式测量空间向 ( )的转变。 5 .同一类模式类样本的分布比较集中,没有或临界样本很少,这样的模式类称为 ( )。 6 .加权空间的所有 ( )都通过坐标原点。 7.线性多类判别: 若每两个模式类间可用判别平面分开, 在这种情况下, M 类有 ( )个判别函数 ,存在有不确定 区域。 8 .当取 ( )损失函数时 , 最小风险贝叶斯判决准则等价于最大后验概率判决准则。 9.Neyman-Pearson 决策的基本思想是 ( )某一错误率,同时追求另一错误率最小。 10.聚类 /集群:用事先不知样本的类别,而利用样本的先验知识来构造分类器属于 ( )学习。 11.相似性测度、 ( )和聚类算法称为聚类分析的三要素。 12. K/C 均值算法使用的聚类准则函数是 ( )准则,通过反复迭代优化聚类结果,使所有样本到各自所属类别的中 心的距离平方和达到最小。 13.根据神经元的不同连接方式,可将神经网络分为分层网络和相互连接型网络两大类。其中分层网络可细分为前向网 络、具有反馈的前向网络和 ( )三种互连方式。 14.神经网络的特性及能力主要取决于 ( )及学习方法。 15. BP 神经网络是采用误差反向传播算法的多层前向网络,其中,神经元的传输函数为 是一种 ( )映射关系。 二、简答题( 2 题,每小题 10 分,共 20 分) S 型函数,网络的输入和输出 1.简述有监督分类方法和无监督分类方法的主要区别。 1 1/ 2 2.已知一组数据的协方差矩阵为 ,试问: 1/2 1 (1) 协方差矩阵中各元素的含义是什么? (2) K-L 变换的最佳准则是什么? (3) 为什么说经 K-L 变换后消除了各分量之间的相关性? 三、计算题(2 题,每小题 13 分,共 26 分 ) 1.设有两类样本,两类样本的类内离散度矩阵分别为 S 1 1/ 2 , S 1 1/ 2 ,各类样本均值分别为 1 1/ 2 1 2 1/ 2 1 T T μ1 2 0 和 μ2 2 2 ,试用 Fisher 准则求其决策面方程。 2.设有两类正态分布的样本集,第一类均值 μ1 T 1 1/ 2 T 20,方差 1 1/ 2 ,第二类均值 μ2 22,方差 1 1 1/ 2 p( 2 ) 。试按最小错误率 Bayes 决策求两类的分界面。 2 1/ 2 ,先验概率 p( 1 ) 1

模式识别试题

《模式识别》试题答案(A卷) 一、填空与选择填空(本题答案写在此试卷上,30分) 1、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定 的类别数目))。 2、欧式距离具有( 1、2 );马式距离具有(1、2、 3、4 )。(1)平移不变性(2)旋转不 变性(3)尺度缩放不变性(4)不受量纲影响的特性 3、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的 正(负)半空间中;绝对值正比于样本点到判别界面的距离。)。 4、感知器算法1。(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。 5、积累势函数法较之于H-K算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情 况));位势函数K(x,x k)与积累位势函数K(x)的关系为( ∑ ∈ = X x x x K x K ~ k k k ) , ( ) ( α )。 6、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于(某一种判决错误较另一种判决错误更 为重要)情况;最小最大判决准则主要用于(先验概率未知的)情况。 7、“特征个数越多越有利于分类”这种说法正确吗?(错误)。特征选择的主要目的是(从n个特 征中选出最有利于分类的的m个特征(m>n )的条件下,可以使用分支定界法以减少计算量。 8、散度Jij越大,说明i类模式与j类模式的分布(差别越大);当i类模式与j类模式的 分布相同时,Jij=(0)。 9、已知有限状态自动机Af=(,Q,,q0,F),={0,1};Q={q0,q1};:(q0,0)= q1, (q0,1)= q1,(q1,0)=q0,(q1,1)=q0;q0=q0;F={q0}。现有输入字符串:(a) 00011101011, (b) 1100110011,(c) 101100111000,(d)0010011,试问,用Af对上述字符串进行分类的结果 为(ω1:{a,d};ω2:{b,c} )。 二、(15分)在目标识别中,假定类型1为敌方目标,类型2为诱饵(假目标),已知先验概率 P(1)=0.2和P(2)=0.8,类概率密度函数如下: x 0 x < 1 x 1 1 x < 2 p(x1)= 2 x 1 x 2 p(x2)= 3 x 2 x 3 0 其它 0 其它 (1)求贝叶斯最小误判概率准则下的判决域,并判断样本x=1.5属于哪一类(2)求总错误概率P(e);(3)假设正确判断的损失11=22=0,误判损失分别为12和21,若采用最小损失判决准则,12和21满足怎样的关系时,会使上述对x=1.5的判断相反?

模式识别试题2

《模式识别》试题库 一、基本概念题 1模式识别的三大核心问题是:( )、( )、( )。 2、模式分布为团状时,选用( )聚类算法较好。 3 欧式距离具有( )。马式距离具有( )。(1)平移不变性(2)旋转不 变性(3)尺度缩放不变性(4)不受量纲影响的特性 4 描述模式相似的测度有( )。(1)距离测度 (2)模糊测度 (3)相似测度 (4) 匹配测度 5 利用两类方法处理多类问题的技术途径有:(1) (2) (3) 。其中最常用的是第( )个技术途径。 6 判别函数的正负和数值大小在分类中的意义是:( )。 7 感知器算法 ( )。(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。 8 积累位势函数法的判别界面一般为( )。(1)线性界面;(2)非线性界面。 9 基于距离的类别可分性判据有:( ).(1)1[]w B Tr S S - (2) B W S S (3) B W B S S S + 10 作为统计判别问题的模式分类,在( )情况下,可使用聂曼-皮尔逊判决准则。 11 确定性模式非线形分类的势函数法中,位势函数K(x,xk)与积累位势函数K(x)的关系为 ( )。 12 用作确定性模式非线形分类的势函数法,通常,两个n 维向量x 和xk 的函数K(x,xk)若 同时满足下列三个条件,都可作为势函数。①( ); ②( );③ K(x,xk)是光滑函数,且是x 和xk 之间距离的单调下降函数。 13 散度Jij 越大,说明i 类模式与j 类模式的分布( )。当i 类 模式与j 类模式的分布相同时,Jij=( )。 14 若用Parzen 窗法估计模式的类概率密度函数,窗口尺寸h1过小可能产生的问题是 ( ),h1过大可能产生的问题是( )。 15 信息熵可以作为一种可分性判据的原因是:( )。 16作为统计判别问题的模式分类,在( )条件下,最小损失判决规则与最 小错误判决规则是等价的。 17 随机变量l(x )=p(x 1)/p(x 2),l(x )又称似然比,则E l( x )2= ( )。在最小误判概率准则下,对数似然比Bayes 判决规则为 ( )。 18 影响类概率密度估计质量的最重要因素( )。 19 基于熵的可分性判据定义为)]|(log )|([1x P x P E J i c i i x H ωω∑=-=,JH 越( ),说 明模式的可分性越强。当P(i| x ) =( )(i=1,2,…,c)时,JH 取极大值。 20 Kn 近邻元法较之于Parzen 窗法的优势在于( )。上 述两种算法的共同弱点主要是( )。 21 已知有限状态自动机Af=(,Q ,,q0,F),={0,1};Q={q0,q1};:(q0, 0)= q1,(q0,1)= q1,(q1,0)=q0,(q1,1)=q0;q0=q0;F={q0}。 现有输入字符串:(a) 000,(b) 11,(c) ,(d)0010011,试问,用Af 对上述字符串进行分

模式识别复习重点总结

1.什么是模式及模式识别模式识别的应用领域主要有哪些 模式:存在于时间,空间中可观察的事物,具有时间或空间分布的信息; 模式识别:用计算机实现人对各种事物或现象的分析,描述,判断,识别。 模式识别的应用领域:(1)字符识别;(2)医疗诊断;(3)遥感; (4)指纹识别脸形识别;(5)检测污染分析,大气,水源,环境监测;(6)自动检测;(7 )语声识别,机器翻译,电话号码自动查询,侦听,机器故障判断; (8)军事应用。 2.模式识别系统的基本组成是什么 (1)信息的获取:是通过传感器,将光或声音等信息转化为电信息; (2)预处理:包括A\D,二值化,图象的平滑,变换,增强,恢复,滤波等, 主要指图象处理; (3)特征抽取和选择:在测量空间的原始数据通过变换获得在特征空间最能反映分类本质的特征; (4)分类器设计:分类器设计的主要功能是通过训练确定判决规则,使按此类判决规则分类时,错误率最低。把这些判决规则建成标 准库; (5)分类决策:在特征空间中对被识别对象进行分类。 3.模式识别的基本问题有哪些

(1)模式(样本)表示方法:(a )向量表示;(b )矩阵表示;(c )几何表示;(4)基元(链码)表示; (2)模式类的紧致性:模式识别的要求:满足紧致集,才能很好地分类;如果不满足紧致集,就要采取变换的方法,满足紧致集 (3)相似与分类;(a)两个样本x i ,x j 之间的相似度量满足以下要求: ① 应为非负值 ② 样本本身相似性度量应最大 ③ 度量应满足对称性 ④ 在满足紧致性的条件下,相似性应该是点间距离的 单调函数 (b) 用各种距离表示相似性 (4)特征的生成:特征包括:(a)低层特征;(b)中层特征;(c)高层特征 (5) 数据的标准化:(a)极差标准化;(b)方差标准化 4.线性判别方法 (1)两类:二维及多维判别函数,判别边界,判别规则 二 维 情 况 :(a )判别函数: ( ) (b )判别边界:g(x)=0; (c n 维情况:(a )判别函数: 也可表示为: 32211)(w x w x w x g ++=为坐标向量 为参数,21,x x w 1 2211......)(+++++=n n n w x w x w x w x g X W x g T =)(

相关文档