文档库 最新最全的文档下载
当前位置:文档库 › 人工智能不确定性推理部分参考答案

人工智能不确定性推理部分参考答案

人工智能不确定性推理部分参考答案
人工智能不确定性推理部分参考答案

不确定性推理部分参考答案

1.设有如下一组推理规则:

r1: IF E1THEN E2 (0.6)

r2: IF E2AND E3THEN E4 (0.7)

r3: IF E4THEN H (0.8)

r4: IF E5THEN H (0.9)

且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=?

解:(1) 先由r1求CF(E2)

CF(E2)=0.6 × max{0,CF(E1)}

=0.6 × max{0,0.5}=0.3

(2) 再由r2求CF(E4)

CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}

=0.7 × max{0, min{0.3, 0.6}}=0.21

(3) 再由r3求CF1(H)

CF1(H)= 0.8 × max{0,CF(E4)}

=0.8 × max{0, 0.21)}=0.168

(4) 再由r4求CF2(H)

CF2(H)= 0.9 ×max{0,CF(E5)}

=0.9 ×max{0, 0.7)}=0.63

(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)

CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)

=0.692

2 设有如下推理规则

r1: IF E1THEN (2, 0.00001) H1

r2: IF E2THEN (100, 0.0001) H1

r3: IF E3THEN (200, 0.001) H2

r4: IF H1THEN (50, 0.1) H2

且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:

P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36

请用主观Bayes方法求P(H2|S1, S2, S3)=?

解:(1) 由r1计算O(H1| S1)

先把H1的先验概率更新为在E1下的后验概率P(H1| E1)

P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)

=(2 × 0.091) / ((2 -1) × 0.091 +1)

=0.16682

由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)

P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))

= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)

=0.091 + 0.18955 × 0.24 = 0.136492

O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))

= 0.15807

(2) 由r2计算O(H1| S2)

先把H1的先验概率更新为在E2下的后验概率P(H1| E2)

P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)

=(100 × 0.091) / ((100 -1) × 0.091 +1)

=0.90918

由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)

P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))

= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)

=0.25464

O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))

=0.34163

(3) 计算O(H1| S1,S2)和P(H1| S1,S2)

先将H1的先验概率转换为先验几率

O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011

再根据合成公式计算H1的后验几率

O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)

= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011

= 0.53942

再将该后验几率转换为后验概率

P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))

= 0.35040

(4) 由r3计算O(H2| S3)

先把H2的先验概率更新为在E3下的后验概率P(H2| E3)

P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)

=(200 × 0.01) / ((200 -1) × 0.01 +1)

=0.09569

由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)

P(H2| S3) = P(H2 | ? E3) + (P(H2) – P(H2| ?E3)) / P(E3)) × P(E3| S3)

由当E3肯定不存在时有

P(H2 | ? E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)

= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)

= 0.00001

因此有

P(H2| S3) = P(H2 | ? E3) + (P(H2) – P(H2| ?E3)) / P(E3)) × P(E3| S3)

=0.00001+((0.01-0.00001) / 0.6) × 0.36

=0.00600

O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))

=0.00604

(5) 由r4计算O(H2| H1)

先把H2的先验概率更新为在H1下的后验概率P(H2| H1)

P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)

=(50 × 0.01) / ((50 -1) × 0.01 +1)

=0.33557

由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)

P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))

= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)

=0.10291

O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))

=0.10291/ (1 - 0.10291) = 0.11472

(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)

先将H2的先验概率转换为先验几率

O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010

再根据合成公式计算H1的后验几率

O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)

= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010

=0.06832

再将该后验几率转换为后验概率

P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))

= 0.06832 / (1+ 0.06832) = 0.06395

可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

3 设有如下推理规则

r1:IF E1THEN (100, 0.1) H1

r2: IF E2THEN (50, 0.5) H2

r3: IF E3THEN (5, 0.05) H3

且已知P(H1)=0.02, P(H2)=0.2, P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(H i | E i)或P(H i |﹁E i)的值各是多少(i=1, 2, 3)?

解:(1) 当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1 | E1) = (LS1× P(H1)) / ((LS1-1) × P(H1)+1)

= (100 × 0.02) / ((100 -1) × 0.02 +1)

=0.671

P(H2 | E2) = (LS2× P(H2)) / ((LS2-1) × P(H2)+1)

= (50 × 0.2) / ((50 -1) × 0.2 +1)

=0.9921

P(H3 | E3) = (LS3× P(H3)) / ((LS3-1) × P(H3)+1)

= (5 × 0.4) / ((5 -1) × 0.4 +1)

=0.769

(2) 当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1 | ?E1) = (LN1× P(H1)) / ((LN1-1) × P(H1)+1)

= (0.1 × 0.02) / ((0.1 -1) × 0.02 +1)

=0.002

P(H2 | ?E2) = (LN2× P(H2)) / ((LN2-1) × P(H2)+1)

= (0.5 × 0.2) / ((0.5 -1) × 0.2 +1)

=0.111

P(H3 | ?E3) = (LN3× P(H3)) / ((LN3-1) × P(H3)+1)

= (0.05 × 0.4) / ((0.05 -1) × 0.4 +1)

=0.032

人工智能不确定性推理部分参考答案教学提纲

人工智能不确定性推理部分参考答案

不确定性推理部分参考答案 1.设有如下一组推理规则: r1: IF E1 THEN E2 (0.6) r2: IF E2 AND E3 THEN E4 (0.7) r3: IF E4 THEN H (0.8) r4: IF E5 THEN H (0.9) 且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 × max{0,CF(E1)} =0.6 × max{0,0.5}=0.3 (2) 再由r2求CF(E4) CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}} =0.7 × max{0, min{0.3, 0.6}}=0.21 (3) 再由r3求CF1(H) CF1(H)= 0.8 × max{0,CF(E4)} =0.8 × max{0, 0.21)}=0.168 (4) 再由r4求CF2(H) CF2(H)= 0.9 ×max{0,CF(E5)} =0.9 ×max{0, 0.7)}=0.63 (5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H) =0.692

2 设有如下推理规则 r1: IF E1 THEN (2, 0.00001) H1 r2: IF E2 THEN (100, 0.0001) H1 r3: IF E3 THEN (200, 0.001) H2 r4: IF H1 THEN (50, 0.1) H2 且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36 请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1) =(2 × 0.091) / ((2 -1) × 0.091 +1) =0.16682 由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1) P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1)) = 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6) =0.091 + 0.18955 × 0.24 = 0.136492 O(H1| S1) = P(H1| S1) / (1 - P(H1| S1)) = 0.15807 (2) 由r2计算O(H1| S2) 先把H1的先验概率更新为在E2下的后验概率P(H1| E2) P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)

人工智能确定性推理部分参备考资料答案解析

确定性推理部分参考答案 1 判断下列公式是否为可合一,若可合一,则求出其最一般合一。 (1) P(a, b), P(x, y) (2) P(f(x), b), P(y, z) (3) P(f(x), y), P(y, f(b)) (4) P(f(y), y, x), P(x, f(a), f(b)) (5) P(x, y), P(y, x) 解:(1) 可合一,其最一般和一为:σ={a/x, b/y}。 (2) 可合一,其最一般和一为:σ={y/f(x), b/z}。 (3) 可合一,其最一般和一为:σ={ f(b)/y, b/x}。 (4) 不可合一。 (5) 可合一,其最一般和一为:σ={ y/x}。 2 把下列谓词公式化成子句集: (1)(?x)(?y)(P(x, y)∧Q(x, y)) (2)(?x)(?y)(P(x, y)→Q(x, y)) (3)(?x)(?y)(P(x, y)∨(Q(x, y)→R(x, y))) (4)(?x) (?y) (?z)(P(x, y)→Q(x, y)∨R(x, z)) 解:(1) 由于(?x)(?y)(P(x, y)∧Q(x, y))已经是Skolem标准型,且P(x, y)∧Q(x, y)已经是合取范式,所以可直接消去全称量词、合取词,得 { P(x, y), Q(x, y)} 再进行变元换名得子句集:

S={ P(x, y), Q(u, v)} (2) 对谓词公式(?x)(?y)(P(x, y)→Q(x, y)),先消去连接词“→”得: (?x)(?y)(?P(x, y)∨Q(x, y)) 此公式已为Skolem标准型。 再消去全称量词得子句集: S={?P(x, y)∨Q(x, y)} (3) 对谓词公式(?x)(?y)(P(x, y)∨(Q(x, y)→R(x, y))),先消去连接词“→”得: (?x)(?y)(P(x, y)∨(?Q(x, y)∨R(x, y))) 此公式已为前束范式。 再消去存在量词,即用Skolem函数f(x)替换y得: (?x)(P(x, f(x))∨?Q(x, f(x))∨R(x, f(x))) 此公式已为Skolem标准型。 最后消去全称量词得子句集: S={P(x, f(x))∨?Q(x, f(x))∨R(x, f(x))} (4) 对谓词(?x) (?y) (?z)(P(x, y)→Q(x, y)∨R(x, z)),先消去连接词“→”得: (?x) (?y) (?z)(?P(x, y)∨Q(x, y)∨R(x, z)) 再消去存在量词,即用Skolem函数f(x)替换y得: (?x) (?y) (?P(x, y)∨Q(x, y)∨R(x, f(x,y))) 此公式已为Skolem标准型。 最后消去全称量词得子句集: S={?P(x, y)∨Q(x, y)∨R(x, f(x,y))}

不确定性推理部分参考答案

第6章不确定性推理部分参考答案 6.8 设有如下一组推理规则: r1: IF E1THEN E2 (0.6) r2: IF E2AND E3THEN E4 (0.7) r3: IF E4THEN H (0.8) r4: IF E5THEN H (0.9) 且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 × max{0,CF(E1)} =0.6 × max{0,0.5}=0.3 (2) 再由r2求CF(E4) CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}} =0.7 × max{0, min{0.3, 0.6}}=0.21 (3) 再由r3求CF1(H) CF1(H)= 0.8 × max{0,CF(E4)} =0.8 × max{0, 0.21)}=0.168 (4) 再由r4求CF2(H) CF2(H)= 0.9 ×max{0,CF(E5)} =0.9 ×max{0, 0.7)}=0.63 (5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H) =0.692 6.10 设有如下推理规则 r1: IF E1THEN (2, 0.00001) H1 r2: IF E2THEN (100, 0.0001) H1 r3: IF E3THEN (200, 0.001) H2 r4: IF H1THEN (50, 0.1) H2 且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36 请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1) =(2 × 0.091) / ((2 -1) × 0.091 +1) =0.16682 由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)

人工智能不确定性推理部分参考答案

不确定性推理部分参考答案 1.设有如下一组推理规则: r1: IF E1THEN E2 (0.6) r2: IF E2AND E3THEN E4 (0.7) r3: IF E4THEN H (0.8) r4: IF E5THEN H (0.9) 且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 × max{0,CF(E1)} =0.6 × max{0,0.5}=0.3 (2) 再由r2求CF(E4) CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}} =0.7 × max{0, min{0.3, 0.6}}=0.21 (3) 再由r3求CF1(H) CF1(H)= 0.8 × max{0,CF(E4)} =0.8 × max{0, 0.21)}=0.168 (4) 再由r4求CF2(H) CF2(H)= 0.9 ×max{0,CF(E5)} =0.9 ×max{0, 0.7)}=0.63 (5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H) =0.692 2 设有如下推理规则 r1: IF E1THEN (2, 0.00001) H1 r2: IF E2THEN (100, 0.0001) H1 r3: IF E3THEN (200, 0.001) H2 r4: IF H1THEN (50, 0.1) H2 且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36 请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1) =(2 × 0.091) / ((2 -1) × 0.091 +1) =0.16682 由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1) P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))

不确定性原理-人工智能的哲学基础

不确定性原理 ——人工智能的哲学基础 作者:孙二林 电邮:sun2lin@https://www.wendangku.net/doc/6113112487.html, 日期:2008年6月30日 文章编号:NNK2008-6-不确定性原理.doc 讨论组:https://www.wendangku.net/doc/6113112487.html,/group/neural-network-knowledgebase

目录 不确定性原理 (1) 目录 (2) 前言 (3) 〇、概念图 (6) 一、不确定性原理 (10) 二、上帝掷骰子 (11) 三、宇宙坐标系 (20) 四、转化炉 (31) 五、进化网络 (42) 六、生命 (51) 七、人类 (58) 八、顶点 (66) 九、人工智能 (74)

前言 科学大体可以分为三层,从下往上依次是:基础科学、应用科学、前沿科学。 人工智能(及其近亲人工生命、机器人学)属于前沿科学的范畴,相对于已经发展了几百年的成熟的基础科学和应用科学,人工智能仅有几十年历史,尚处于起步阶段,远未形成坚实的基础和完整的架构。 研究人工智能,应该从哪里入手?这是个问题。 它牵扯到另外一个问题:人工智能到底是什么? 人工智能是一台计算机吗? 是,又不仅仅是。 人工智能是一段程序吗? 是,又不仅仅是。 显然,如果只了解计算机和程序,那最多也就能组装一台电脑、编写一段代码,跟人工智能还差得太远。 人工智能,不仅仅是一台机器,不仅仅是一段代码,甚至不仅仅是一个数学模型。 人工智能之父图灵所创建的图灵机,准确地说是计算机的数学模型,它是实现人工智能的工具和基础,而不是人工智能本身;它是实现人工智能的必要条件,而不是充分条件。计算机已经出现半个多世纪了,已经非常普及,但几乎所有人都不会认同:它就是人工智能。 我们对人工智能的理解,还远未达到可以进行数学建模的程度。在不能说清楚人工智能到底是个什么东西之前,就开始建模甚至编程,未免太过草率。 科学,是一座庄严宏伟的大厦。这座大厦建得越高,承载它的地基就需要挖得越深。 当科学大厦搭建到人工智能这一前所未有的高度时,无疑,它的地基也需要挖掘到前所未有的深度。 人工智能的下一层是什么? 计算机科学、生命科学、语言学。 计算机科学、生命科学、语言学的下一层是什么? 数学、物理学、逻辑学。 数学、物理学、逻辑学就是科学大厦的最底层了吗? 是的。 科学大厦再往下是什么? 基石。 科学的基石是什么? 哲学。 是的,哲学。如果我们要在人工智能的方向上走得更远,就必须对哲学有着更深刻的理解。 不懂哲学? 错,我们每个人都懂哲学。“人死不能复生”,“世界是由原子组成的”,这就是哲学。

人工智能原理教案03章不确定性推理方法33主观Bayes方法

3.3 主观Bayes方法 R.O.Duda等人于1976年提出了一种不确定性推理模型。在这个模型中,他们称推理方法为主观Bayes方法,并成功的将这种方法应用于地矿勘探系统PROSPECTOR中。在这种方法中,引入了两个数值(LS,LN),前者体现规则成立的充分性,后者则表现了规则成立的必要性,这种表示既考虑了事件A的出现对其结果B的支持,又考虑了A的不出现对B的影响。 在上一节的CF方法中,CF(A)<0.2就认为规则不可使用,实际上是忽视了A不出现的影响,而主观Bayes方法则考虑了A 不出现的影响。 t3-B方法_swf.htm Bayes定理: 设事件A1,A2 ,A3 ,…,An中任意两个事件都不相容,则对任何事件B有下式成立: 该定理就叫Bayes定理,上式称为Bayes公式。

全概率公式: 可写成: 这是Bayes定理的另一种形式。 Bayes定理给出了一种用先验概率P(B|A),求后验概率P (A|B)的方法。例如用B代表发烧,A代表感冒,显然,求发烧的人中有多少人是感冒了的概率P(A|B)要比求因感冒而发烧的概率P(B|A)困难得多。 3.3.1 规则的不确定性 为了描述规则的不确定性,引入不确定性描述因子LS, LN:对规则A→B的不确定性度量f(B,A)以因子(LS,LN)来描述:

表示A真时对B的影响,即规则成立的充分性 表示A假时对B的影响,即规则成立的必要性 实际应用中概率值不可能求出,所以采用的都是专家给定的LS, LN值。从LS,LN的数学公式不难看出,LS表征的是A的发生对B发生的影响程度,而LN表征的是A的不发生对B发生的影响程度。 几率函数O(X):

不确定性推理方法研究word版

不确定性推理 摘要:对3种最常用的不确定性推理方法进行了分析和评述:概率推理、D-S证据推理和模糊推理。分别针对不同类型的不确定性。概率推理针对的是"事件发生与否不确定"这样的不确定性。D-S证据推理针对的是"分不清"或"不知道"这样的不确定性。模糊推理则是针对概念内涵或外延不清晰这样的不确定性。概率推理的理论体系是严密的,但其推理结果有赖可信的先验概率和条件概率。D-S证据推理是不可信的,但在一定条件下可以转化为概率推理问题来处理。模糊推理是一种很有发展潜力的推理方法,主要问题是推理规则需要具体设计,且设计好坏决定推理结果。 关键词:不确定性推理概率推理 D-S证据论模糊推理 引言 近年来,不确定性推理技术引起了人们的重视。这一方面是由于现实问题中普遍含有种种的不确定性,因此对不确定性推理技术有很大的需求。另一方面也在于不断出现的不确定性推理技术出现了一些问题,引起了人们的热议。 本文对三种应用最为广泛的不确定性推理技术进行了分析和评述。它们是:概率推理、D-S证据推理和模糊推理。它们分别具有处理不同类型的不确定性的能力。概率推理处理的是“事件发生与否不确定”这样的不确定性;D-S证据推理处理的是含有“分不清”或“不知道”信息这样的不确定性;模糊推理则是针对概念内涵或外延不清晰这样的不确定性。这些不确定性在实际的推理问题中是非常普遍的,因此这3种推理技术都有广泛的应用。 然而,这些推理技术在实际中的应用效果相差很大。有的得出的推理结果非常合理,用推理结果去执行任务的效果也非常好。也有的效果很差,推理结果怪异,完全背离人的直觉。应用效果差的原因可能是所用推理技术本身的缺陷,也可能是应用者对所用技术了解掌握不够。 无论如何,都非常有必要对这些不确定性推理技术进行一番对比分

不确定性人工智能课件之五

《不确定性人工智能》课件之五 云模型小结 李德毅 leedeyi@https://www.wendangku.net/doc/6113112487.html, 2009年10月

云模型的理论基础和基本原理 z 随机性和概率理论 z 模糊性和模糊集理论 z 云模型 2

z 不少理论计算机科学家和逻辑学家试图通过模糊集理论解决通过模糊集理论解决G.Frege G.Frege的含糊概念的含糊概念,但模糊集理论采用隶属度函数来处理模糊性,而基本的隶属度是凭经验或者由领域专家给出所以具有相当的主观由领域专家给出,所以具有相当的主观性 3

云模型的定义 是概念C C的设C是论域U上的概念。若x∈U是概念 一次随机实现,x对C的确定度μ(x) ∈[0,1]是有稳定倾向的随机数: μ(x):U→[0,1] ?x∈U 则x在论域U上的分布称为云,每一个x称为一个云滴。 为一个云滴 4

云模型 云由许许多多云滴组成,,每一个云滴就z云由许许多多云滴组成 是定性概念映射到论域空间的个点, , 个点是定性概念映射到论域空间的一个点 ,这是一个离散转换即实现了一次量化 即实现了一次量化, ,云滴在论域空间的分布形成一朵过程, 过程 云 这种实现带有不确定性,,云模型同时给z这种实现带有不确定性 出每个云滴能够代表定性概念的确定度

云模型 z 云是用自然语言值表示的某个定性概 念与其定量表示之间的不确定性转换模型模型,,具有直观性和普遍性具有直观性和普遍性。。 z 论域空间是数域空间是数域空间,,定性概念对应的域间是数域间可以是一维的可以是一维的、、二维的二维的、、也可以是多维的维的,,由研究问题而定

不确定性推理知识要点

不确定性推理 1/4/2004 ● 对每个模型需要把握的重点: (1) 知识不确定性的表示方法 (2) 证据不确定性的表示方法 (3) 组合证据不确定性的计算方法 (4) 不确定性的传递算法,亦即如何由证据的不确定性以及知识的不确定性求出结论的 不确定性 (5) 结论不确定性的合成算法,即如果有多条知识推出相同的结论,应该怎样计算出最 终的结论不确定性 ● 学过的模型: 一. 概率方法 二. 主观Bayes 方法 ◆ 实质:根据证据E 的概率P(E)以及LS ,LN 的值,将H 的先验概率P(H)更新为后验概率P(H/E)。其中,LS ,LN ,P(H)都由领域专家给出,P(E)则是由用户的具体观察得到的。 ◆ 模型: (1) 知识不确定性的表示:使用充分性量度LS 和必要性量度LN ,并且这两者都是由领 域专家给出的(P163) (2) 证据不确定的表示:用概率P(E/S)来表示,其中S 表示一次观察,E 为证据。一般 的该值是根据用户给出的可信度C(E/S)计算出来的,具体计算方法参见课本P163-164 (3) 组合证据不确定性的计算:极大极小法(P164) (4) 不确定性的传递算法:引入几率函数来辅助推理过程。几率函数定义为: ()()1() P x x P x Θ=- 根据知识对应的证据的确定性不同分成三种情况,即 1)证据肯定存在的情况: (/)()H E LS H Θ=?Θ 或 ()()(/)(1)()11()LS P H LS H P H E LS P H LS H ??Θ==-?++?Θ 2)证据肯定不存在的情况: (/)()H E LN H Θ?=?Θ 或

相关文档
相关文档 最新文档