1、2019/11/28,127,1,第四章 不确定性推理 4.1 基本概念1. 为什么要研究不确定性推理问题 现实世界的问题求解大部分是不良结构; 对不良结构的知识描述具有不确定性:1) 问题证据的不确定性;2) 专门知识的不确定性。2. 什么是不确定性推理不确定性推理是建立在非经典逻辑基础上的一种推理,它是对 不确定性知识的运用和处理。 不确定性推理就是从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却合理或者近乎合理的结论的思维过程。,2019/11/28,127,2,3. 不确定性推理中的基本问题 在不确定性推理中,知识和证据都具有某种程度的不确定性, 这
2、就为推理机的设计与实现增加了复杂性和难度。它除了必须解决推理方向、推理方法、控制策略等基本问题外,一般还需要解决不确定性的表示和量度、不确定性匹配、不确定性的传递算法以及不确定性的合成等重要问题。(1) 不确定性的表示与量度 知识不确定性的表示在确立其表示方法时,有两个直接相关的因素需要考虑:1) 要能根据领域问题的特征把其不确定性比较准确地描述出来,满足问题求解的需要;2) 要便于推理过程中对不确定性的推算。,2019/11/28,127,3,目前在专家系统中,知识的不确定性一般由领域专家给出,通常是一个数值,它表示相应知识的不确定性程度,称为知识的静态强度。 证据不确定性的表示在推理中,有
3、两种来源不同的证据:1) 一种是用户在求解问题时提供的初始证据;2) 另一种是在推理中用前面推出的结论作为当前推理的证据。证据的不确定性表示方法应与知识的不确定性表示方法保持一致,以便于推理过程中对不确定性进行统一处理。证据的不确定性通常也用一个数值表示,它代表相应证据的不确定性程度,称为动态强度。对于初始证据,其值由用户给出;对推理所得证据,其值由推理中不确定性的传递算法通过计算得到。,2019/11/28,127,4, 不确定性的量度对于不同的知识和不同的证据,其不确定性的程度一般是不相同的,需要用不同的数据表示其不确定性的程度,同时还要事先规定它的取值范围。例如,在专家系统 MYCIN
4、中,用可信度表示知识与证据的不确定性,取值范围为 -1, 1。在确定一种量度及其范围时,应注意以下几点:1) 量度能充分表达相应知识及证据不确定性的程度。2) 量度范围的指定应便于领域专家及用户对不确定性的估计的程度。3) 量度要便于对不确定性的传递进行计算,而且对结论算出的不确定性量 度不能超出量度规定的范围。4) 量度的确定应是直观的。,2019/11/28,127,5,(2) 不确定性匹配算法及阈值的选择对于不确定性推理,由于知识和证据都具有不确定性,而且知识所要求的不确定性与证据实际具有的不确定性程度不一定相同,因而就出现了“怎样才算匹配成功”的问题。对于这个问题,目前常用的解决方法是
5、:设计一个算法用来计算匹配双方相似的程度,另外再指定一个相似的“限度”,用来衡量匹配双方相似的程度是否落在指定的限度内。如果落在指定的限度内,就称它们是可匹配的,相应知识可被应用。 用来计算匹配双方相似程度的算法称为不确定性匹配算法。 用来指出相似的“限度”称为阈值。,2019/11/28,127,6,(3) 不确定性的传递算法不确定性推理的根本目的是根据用户提供的初始证据,通过运用不确定性知识,最终推出不确定性的结论,并推算出结论的不确定性程度。为达到这一目的,除了需要解决前面提到的问题外,还需要解决推理过程中不确定性的传递问题,它包括两个子问题: 在每一步推理中,如何把证据及知识的不确定性
6、传递给结论; 在多步推理中,如何把初始证据的不确定性传递给最终结论。对前一个问题,在不同的不确定推理方法中所采用的处理方法各不相同, 这将在以后讨论。对第二个问题,各种推理方法所采用的处理方法基本相同,即:把当前推出的结论及其不确定性程度作为证据放入数据库中,在以后的推理中,它又作为证据推出进一步的结论,由此一步步进行推理,必然会把初始证据的不确定性传递给最终结论。,2019/11/28,127,7,(4) 结论不确定性的合成推理时有时会出现这样的情况:用不同的知识进行推理得到了相同的结论,但不确定性的程度却不同。 此时,需要用合适的算法对它们进行合成。在不同的不确定推理方法中所采用的处理方法
7、各不相同,这将在以后讨论。,2019/11/28,127,8,4.2 不确定性推理方法的分类及常用不确定性推理方法简介1. 不确定性推理方法的研究分类不确定性推理方法的研究分为两大类:(1) 在推理一级上扩展确定性推理 特点:把不确定的证据和不确定的知识分别与某种量度标准对应起来,并且给出 更新结论不确定性的算法,从而构成了相应的不确定性推理的模型。一般来说,这类方法与控制策略无关,即无论用何种控制策略,推理的结 果都是唯一的,我们把这一类方法称为模型方法。,2019/11/28,127,9,(2) 在控制策略一级处理不确定性特点:通过识别领域中引起不确定的某些特征及相应的控制策略来限制或减少
8、不 确定性对系统产生的影响。这类方法没有处理不确定性的统一模型,其效果极大的依赖于控制策略,这类方法称为控制方法。(该方法有相关性制导回溯、机缘控制、启发式搜索等方法,在此不讨论),2019/11/28,127,10,2 常用的不确定性推理方法介绍 (1) 主观 Bayes 方法利用新的信息将先验概率P(H)更新为后验概率P(H|E)的一种计算方法.主观 Bayes方法由 Dnda 等人于 1976 年提出,其首先在Prospector专家系统中使用,它以概率论中的 Bayes公式为基础。其核心思想是:.根据证据的概率P(E);.利用规则的(LS,LN);LS:E 的出现对 H 的支持程度,L
9、N:E 的出现对 H 的不支持程度。.把结论 H 的先验概率更新为后验概率 P(H|E);.循环,2019/11/28,127,11,(2) 可信度方法可信度方法是由E.H.Shortliffe等人在确定性理论的基础上,结合概率 提出的一种不确定性推理方法,首先在Mycin系统中得到了成功的应用。其核心思想是: 利用确定性因子CF(值). 联系于具体的断言. 联系于每条规则. 通过CF的计算传播不确定性(3)证据理论法由Dempstan和 Shafen提出并发展,其基于一系列理论和描述。由于该理论满足比概率论更弱的公理,能够区分“不确定”与“不知道”的差异,并能处理由“不知道”产生的不确定性,
10、具有较大的灵活性。在证据理论的基础上已经发展了多种不确定性推理模型。,2019/11/28,127,12,(4) 模糊推理模糊推理与前三种不确定性推理方法有着实质性的区别,前三种方法的理论基础是概率论,它所研究的事件本身有明确的含义,只是由于发生的条件不充分,使得在条件与事件之间不能出现确定的因果关系,从而在事件的出现与否上出现不确定性,那些推理模型是对这种不确定性,即随机性的表示与处理。 模糊推理是利用模糊性知识进行的一种不确定性推理。 模糊推理的理论基础是模糊集理论以及在此基础上发展起来的模糊逻辑。 它所处理的事物自身是模糊的,概念本身没有明确的外延,一个对象是否符合这个概念难以明确的确定
11、,模糊推理是对这种不确定性,即模糊性的表示与处理。在人工智能领域内,知识及信息的不确定性大多是由模糊性引起的,这就使得对模糊理论的研究显得格外重要。,2019/11/28,127,13,4.3 概率方法1. 经典概率方法设有如下产生式规则:IF E THEN H (其中,E为前提条件,H为结论。) 如果我们在实践中能得出在E发生条件下H的条件概率P(H/E),那么就可把它作为在证据E出现时结论H的确定性程度。 对于复合条件 E = E1 AND E2 ANDAND En也是这样,当已知条件概率P(H/E1,E2,En),就可把它作为在证据E1,E2,En出现时结论H的确定性程度。优点:显然这是
12、一种很简单的方法,只能用于简单的不确定性推理。缺点:由于它只考虑证据为真或为假两种极端情况,因而使其应用受到限制。,2019/11/28,127,14,2. 逆概率方法经典概率方法要求给出在证据E出现情况下结论H的条件概率P(H/E),这在实际应用中是相当困难的。例: 若以E代表咳嗽,以H代表支气管炎,如欲得到在咳嗽的人中有多少是患 支气管炎的,就需要作大量的统计工作; 但是如果在患支气管炎的人中统计有多少人是咳嗽的,就相对容易一些,因为患支气管炎的人毕竟比咳嗽的人少得多。解决方法:可用逆概率P(E/H)来求原概率P(H/E)。( Bayes定理给出了解决这个问题的方法。)(1) Bayes定
13、理:若A1,A2,An是彼此独立的事件,则对任何事件B有如下Bayes公式成立:P(Ai/B)= i=1,2,n,2019/11/28,127,15,其中,P(Ai)是事件Ai的先验概率;P(B/Ai)是事件在Ai发生条件下的事件B的条件概率;P(Ai/B)是事件在B发生条件下的事件Ai的条件概率。(2) 单个证据时如果用产生式规则:IF E THEN Hi (IF 咳嗽 THEN 气管炎)中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai,就可得到P(Hi/E)= i=1,2,n这就是说,当已知结论Hi的先验概率P(Hi),并且已知结论Hi(i=1,2,n)成立时前提条件E所对应
14、的证据所出现的条件概率P(E/Hi),就可用上式求出相应证据出现时结论Hi的条件概率P(Hi/E)。,2019/11/28,127,16,例:设H1,H2,H3分别是三个结论,E是支持这些结论的证据,且已知:P(H1)=0.3 P(H2)=0.4, P(H3)=0.5P(E/H1)=0.5 P(E/H2)=0.3 P(E/H3)=0.4求P(H1/E), P(H2/E), P(H3/E),的值各是多少。 解:根据上面的公式P(H1/E)= = 0.32同理可得: P(H2/E)=0.26P(H3/E)=0.43由此可见,证据E的出现,H1成立的可能性略有增加,H2、H3略有下降。,2019/1
15、1/28,127,17,(3) 有多个证据时对于有多个证据E1, E2, , Em和多个结论H1, , H2, Hn,并且每个证据都以一定的程度支持结论的情况,上面的式子可进一步扩充为:P(Hi/E1 E2Em)=i=1,2,3,n (4) 小结优点:有较强的理论背景和良好的数学特性,当证据及结论都彼此独立时计算的复杂度较低; 缺点:它要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej/Hi),尽管有些时候P(Ej/Hi)比 P(Hi/Ej)相对容易得到,但总的来说,想得到这些数据是相当困难的;另外,Bayes公式的应用条件很严格,它要求各事件相互独立。,2019/11/28,1
16、27,18,设已知 P(H1)=0.4 P(H2)=0.3 P(H3)=0.3 P(E1/H1)=0.5 P(E1/H2)=0.6 P(E1/H3)=0.3 P(E2/H1)=0.7 P(E2/H2)=0.9 P(E2/H3)=0.1 求: P(H1/E1E2) P(H2/E1E2) P(H3/E1E2),0.45 0.52 0.03,2019/11/28,127,19,作业,2019/11/28,127,20,4.4 主观 Bayes 方法鉴于上节所述的直接使用Bayes公式带来的诸多不便,1976年 R.O.Doda、P.E.Hart 等人在 Bayes 公式的基础上经适当改进提出了主观
17、Bayes 方法,建立了相应的不确定推理模型,并在地矿勘探专家系统 PROSPECTOR 中得到了成功的应用。1. 知识不确定性的表示在主观 Bayes 方法中,知识是用产生式规则表示的,具体形式为:if E then (LS, LN) H ( P(H) )其中 E 是该条知识的前提条件,它既可以是一个简单条件,也可以是用 and 、or 把单个条件连接起来的复合条件。 H 是结论,P(H) 是 H 的先验概率,它指出在没有任何专门证据的情况下,结论为真的概率,其值由领域专家根据以往的实践及经验给出。,2019/11/28,127,21, LS 称为充分性量度,用于指出 E 对 H 的支持程度
18、,取值范围为 0, ),其定义为:LS = LS 的值由领域专家给出,具体情况在下面论述。 LN 称为必要性量度,用于指出 E 对 H 的支持程度,取值范围为 0, ),其定义为:LN = =LN 的值也由领域专家给出,具体情况在下面论述。 LS, LN 相当于知识的静态强度。,2019/11/28,127,22,2. 证据不确定性的表示 在主观 Bayes 方法中,证据的不确定性也是用概率表示的。例如,对于初始证据 E ,由用户根据观察 S 给出 P(E/S),它相当于动态强度。但由于 P(E/S) 的给出相当困难,因而在具体的应用系统中 往往采用适当的变通方法,如在 PROSPECTOR
19、中引进了可信度的概念,让用户在 5 至 5 之间的 11 个整数中选一个数作为初始证据的可信度。可信度 C(E/S) 与 概率 P(E/S) 的对应关系如下:C(E/S)= 5 ,表示在观察 S 下证据 E 肯定不存在,即 P(E/S)=0;C(E/S)= 0 , 表示 S 与 E 无关,即 P(E/S) =P(E) ;C(E/S)= 5 , 表示在观察 S 下证据 E 肯定存在,即 P(E/S)=1;,2019/11/28,127,23,C(E/S) = 其它数值时与 P(E/S) 的对应关系,可通过对上述三点进行分段线性 插值得到,如下图。,由上图可得到 C(E/S) 与 P(E/S) 的
20、关系式:,这样,用户只要对初始证据给出相应的可信度 C(E/S),就可将其转换为P(E/S) 。,2019/11/28,127,24,3. 组合证据不确定性的算法当组合证据是多个单一证据的合取时,即E=E1 AND E2 AND AND En,如果已知P(E1/S),P(E2/S),P(En/S), 则:P(E/S) = min P(E1/S), P(E2/S), , P(En/S) 当组合证据是多个单一证据的析取时,即E=E1 OR E2 OROR En 如果已知P(E1/S),P(E2/S),P(En/S),则:P(E/S) = max P(E1/S), P(E2/S), , P(En/S
21、) 对“非”运算,则:P( E/S) = 1 P(E/S),2019/11/28,127,25,4. 不确定性的传递算法在主观 Bayes 方法的知识表示中,P(H) 是专家对结论 H 给出的先验概率, 它是在没有考虑任何证据的情况下根据经验给出的。随着新证据的获得,对 H 的信任程度应该有所改变。主观 Bayes 方法推理的任务就是根据证据 E 的概率 P(E)及 LS , LN 的值,把 H的先验概率 P(H) ,更新为后验概率 P(H/E) 或 P(H/ E)。即: P(H) P(H/E) 或 P(H/ E) 下面分三种情况讨论。(1) 证据肯定存在的情况证据肯定存在时,P(E) = P
22、(E/S) = 1,2019/11/28,127,26,由 Bayes 公式得:P(H/E) = P(E/H) P(H) / P(E) 同理有: P(H/E) = P(E/ H) P(H) / P(E) 除以,得:P(H/E) P(E/H) P(H) P(H/E) P(E/ H) P(H) 由 式 及 “非”运算 P( H/E) = 1 P(H/E) , 得:,=,2019/11/28,127,27,充分性量度LS: 当 LS 1 时,P(H/E) P(H),这表明由于证据 E 的存在,将增大 结论 H 为真的概率,且 LS 越大,P(H/E) 就越大,即 E 对 H 为真的支持越强。当 LS
23、 ,P(H/E) 1,E 的存在对 H 为真是充分的,故称 LS 为充分性量度。 当 LS = 1 时,P(H/E) = P(H) ,这表明 E 与 H 无关。 当 LS 1 时, P(H/E) P(H),表明由于证据 E 的存在,将导致 H 为真的可能性下降。 当 LS = 0 时,P(H/E) = 0 ,这表明证据 E 的存在,导致 H 为假。上述 LS 的讨论,可作为领域专家为 LS 赋值的依据,当证据E越是支持 H 为真时,则应使 LS 的值越大。,P(H/E)为增函数,2019/11/28,127,28,(2) 证据肯定不存在的情况证据肯定不存在时, P(E) = P(E/S) =
24、0 ,P(E)= 1 。由 Bayes 公式得:P(H/ E) = P(E/ H) P(H) / P(E) 同理有: P(H/ E) = P(E/ H) P(H) / P(E) 除以,得:P(H/ E) P(E/H) P(H) P(H/ E) P(E/ H) P(H) 由 式 及 “非”运算 P( H/E) = 1 P(H/E) , 得:,2019/11/28,127,29,必要性量度LN: 当 LN 1 时,由上式得:P(H/E) P(H)这表明由于证据 E 的不存在,将增大 结论 H 为真的概率,且 LN 越大,P(H/ E) 就越大,即 E 对 H 为真的支持越强。当 LN ,P(H/
25、E) 1 。 当 LN = 1 时,P(H/ E) = P(H) ,这表明 E 与 H 无关。 当 LN 1 时, P(H/ E) P(H),表明由于证据 E 的不存在,将导致 H 为真的可能性下降。 当 LN = 0 时,P(H/ E) = 0 ,这表明证据 E 的不存在,导致 H 为 假。 由此也可看出 E 对 H 为真的必要性,故称 LN 为必要性量度。 上述 LN 的讨论,可作为领域专家为 LN 赋值的依据,当证据E对 H 愈是必要,则相应 LN 的值愈小。,2019/11/28,127,30,另外,由于 E 和 E 不可能同时支持 H 或反对 H ,所以在一条知识中,LS 和 LN
26、不应该出现下列情况中的任何一种: LS 1,LN 1 LS 1,LN 1 (3) 证据不确定的情况在现实中,证据肯定存在或肯定不存在的极端情况是不多的,更多的是介于两者之间的不确定情况。现在要在 0 P(E/S) 1 的情况下确定 H 的后验概率 P(H/S) 。在证据不确定的情况下,不能再用上面的公式计算后验概率,而需使用 R.O.Doda 等人1976年证明的如下公式:P(H/S) = P(H/E) P(E/S) + P(H/E) P(E/S) ,2019/11/28,127,31,R1:IF E1 THEN (10,1) H1 (0.03) R2:IF E1 THEN (10,1) H2
27、 (0.03) R3:IF E1 THEN (10,1) H3 (0.03) 求:当证据E1,E2,E3,存在即不存在时候 P(Hi/Ei)以及P(Hi/!Ei)的值是多少,由于r1和r2中的LN1,所以E1和E2不存在时对H1和H2产生影响,不需要计算P(H1/!E1) P(H2/!E2),要计算P(H1/E1) P(H2/E2),由于E1的存在使得H1的可能性增加了8倍,由于E2的存在使得H2为真的可能性增加了10倍,2019/11/28,127,32,由于E3的不存在,使H3为真的可能性,削减了350倍,2019/11/28,127,33,下面分四种情况讨论:1) P(E/S) = 1当
28、 P(E/S) = 1 时, P(E/S) = 0,此时公式 变为:P(H/S) = P(H/E) = 这是证据肯定存在的情况。2) P(E/S) = 0当 P(E/S) = 0 时, P(E/S) = 1,此时公式 变为:P(H/S) = P(H/E) = 这是证据肯定不存在的情况。,2019/11/28,127,34,3) P(E/S) = P(E) 当 P(E/S) = P(E) 时,此时公式 变为:P(H/S) = P(H/E) P(E) + P(H/E) P(E) = P(H)表示 H 与 S 无关。4) 当 P(E/S) = 其它值时,通过分段线性插值可得到计算P(H/S)的公式。
29、,全概率公式,2019/11/28,127,35,该公式称为EH公式。,2019/11/28,127,36,(4) 对初始证据,用可信度 C(E/S) 计算 P(H/S)对于初始证据,由于其不确定性是用可信度 C(E/S) 给出的,此时只要把 C(E/S) 与 P(E/S) 的对应关系带入上式,便可得到下述公式:,该公式称为CP公式。,当用初始证据进行推理时,根据用户告知的C(E/s)运用CP,就可以求出P(H/s) 当用推理过程中得到的中间结论作为证据进行推理时,通过运用EH公式就 可求出P(H/S),2019/11/28,127,37,5. 结论不确定性的合成算法若有n条知识都支持相同的结
30、论,而且每条知识的前提条件所对应的证据Ei(i =1,2,n)都有相应的观察Si 与之对应, 此时只要先求出每条知识的 (H/Si),然后就可运用下述公式求出 O(H/S1,S2,Sn)。,其中O 为几率函数,它与概率的关系为:,2019/11/28,127,38,例:设有如下知识:r1: if E1 then (2, 0.001) H1r2: if E2 then (100, 0.001) H2r3: if H1 then (200, 0.01) H2已知: P(H1)=0.09 P(H2)=0.01C(E1/S1)=2C(E2/S3)=1求: P(H2/S1,S2)=? ( 或 O(H2/
31、S1,S2)=? ),解:,2019/11/28,127,39,(1) 计算 P(H1/S1) ( O(H1/S1) ),对于初始证据, 使用CP公式, C(E1/S1)=2 0 使用CP公式的后半部。,2019/11/28,127,40,(2) 计算 P(H1/S2) ( O(H1/S2) ),对于初始证据,使用CP公式, C(E2/S2)=1 0 使用CP公式的后半部。,2019/11/28,127,41,(3) 计算 P(H1/S1,S2) ( O(H1/S1,S2) ),2019/11/28,127,42,(4) 计算 P(H2/S1,S2) ( O(H2/S1,S2) ),使用EH公
32、式 P(H1/S1,S2) P(H1) 使用EH公式的后半部。,H2的先验概率为0.01,而最后算出的后验概率为0.198,增加了近20倍。,2019/11/28,127,43,6. 主观 Bayes 方法的主要由缺点:主要优点: 其计算公式大多是在概率论的基础上推导出来的,具有较坚实的理论基 础; 知识的静态强度LS、LN 由领域专家根据实际经验得到,避免了大量的数据统计工作; 给出了在证据不确定情况下更新先验概率为后验概率的方法,且从推理过程中看,确实是实现了不确定性的传递;主要缺点: 它要求领域专家在给出知识时,同时给出 H 的先验概率,这是比较困难的。 Bayes定理中要求事件间相互独
33、立,限制了该方法的应用。,2019/11/28,127,44,作业,2019/11/28,127,45,2019/11/28,127,46,4.5 可信度方法可信度方法是肖特里菲(E.H.Shortliffe)等人在确定性理论(Theory of Comfirmation)的基础上,结合概率论等提出的一种不确定性推理方法,首先在专家系统 MYCIN 中得到了成功的应用。由于该方法比较直观、简单,而且效果也比较好,因而受到人们的重视。目前,许多专家系统都是基于这一方法建造起来的。 1. 可信度根据经验对一个事物或现象为真的相信程度称为可信度。显然,可信度带有较大的主观性和经验性,其准确性难以把握
34、。但出于人工智能所面向的多是结构不良的复杂问题,难以给出精确的数学模型,先验概率及条件概率的确定又比较困难,因而用可信度来表示知识及证据的不确性仍不失为一种可行的方法。另外,由十领域专家都是所在领域的行家里手,有丰富的专业知识及实践经验,也不难对领域内的知识给出其可信度。,2019/11/28,127,47,2. C-F模型C-F 模型是基于可信度表示的不确定性推理的基本方法。其它可信度 方法都是在此基础上发展起来的。(1) 知识不确定性的表示在C-F模型中,知识是用产生式规则表示的,其一般形式是:if E then H (CF(H, E)其中,E:是知识的前提条件,它既可以是一个单个条件,也
35、可以是用 and 及 or 连接起来的复合条件;H:是结论,它可以是一个单一结论,也可以是多个结论。CF(H,E):是该条知识的可信度,称为可信度因子或规则强度,也就是前面所说的静态强度。CH(H,E) 在-1,1上取值,它指出当前提条件 E 所对应的证据为真时,它对结论为真的支持程度。,2019/11/28,127,48,例如: if 头痛 and 流涕 then 感冒 (0.7)表示当病人确有“头痛”及“流涕”症状时,则有7成的把握认为 他患了感冒。1) 在 C-F 模型中,把CF(H,E)定义为:CF(H,E)=MB(H,E) MD(H,E)MB:称为信任增长度,它表示因与前提条件 E
36、匹配的证据的出现,使结论H为真的信任增长度。MB定义为:MB(H,E)=,2019/11/28,127,49,MD:称为不信任增长度,它表示因与前提条件E匹配的证据的出现,使结论H为真的不信任增长度。MD定义为:MD(H,E)=P(H) 表示H的先验概率;P(H/E) 表示在前提条件E对应的证据出现的情况下,结论H的条件概率。2) CF(H,E)的计算公式 由MB和MD的定义看出:当MB(H,E)0时,有P(H/E)P(H);当MD(H,E)0时,有P(H/E)P(H);,2019/11/28,127,50, 因为一个证据不可能既增加对H 的信任程度,又增加对H的不信任程 度,因此MB(H,E
37、) ,MD(H,E)是互斥的, 即:当 MB(H,E)0 时, MD(H,E)=0当 MD(H,E)0 时 MB(H,E)=0综合上述可得到CF(H,E)的计算公式: MB(H,E) 0 = , 若P(H/E)P(H)CF(H,E) = 0 , 若P(H/E)=P(H)0 MD(H,E) = , 若P(H/E)P(H,2019/11/28,127,51,由CF(H,E)的计算公式可直观地看出它的意义:1) 若 CF(H,E)0,则 P(H/E)P(H)。这说明由于前提条件E所对应的证据出 现增加了H为真的概率,即增加了H为真的可信度,CF(H,E)的值越大,增加 H为真的可信度就越大。若 CF
38、(H,E)=1,可推出 P(H/E)1,即由于E所对应的证据出现使H为真。2) 若 CF(H,E)0,则P(H/E)P(H)。这说明由于E所对应的证据出现减少了H为真的概率,即增加了H为假的可信度,CF(H,F)的值越小,增加H为假的可 信度就越大。若CF(H,E)=-1,可推出 P(H/E)0,即E所对应的证据出现使H 为假。3) 若CF(H,E)=0,则 P(H/E)=P(H),表示H与E独立,即E所对应的证据出现对H没有影响。,2019/11/28,127,52,当已知 P(H) 和 P(H/E) 的值时,通过运用上述公式,可以求出CF(H,E)。但是,在实际应用中, P(H) 和 P(
39、H/E) 的值是难以获得的。因此,CF(H,E) 的值要求领域专家直接给出。其原则是: 若由于相应证据的出现增加结论 H 为真的可信度,则使CF(H,E)0,证据的 出现越是支持 H 为真,就使CF(H,E)的值越大; 反之,使CF(H,E)0,证据的出现越是支持 H 为假,就使CF(H,E)的值越小; 若证据的出现与否与 H 无关,则使 CF(H,E)=0。(2) 证据不确定的表示在该模型中,证据的不确定性也用可信度因子表示。如:CF(E)=0.6 表示证据 E 的可信度为 0.6。证据可信度值的来源分为两种情况: 对于初始证据,其可信度的值由提供证据的用户给出;,2019/11/28,12
40、7,53, 对于用先前推出的结论作为当前推理的证据,其可信度值在推 出该结论时通过不确定性传递算法计算得到。证据 E 的可信度 CF(E) 也是在-1,1之间取值。对于初始证据: 若对它的所有观察S能肯定它为真则使CF(E)=1; 若肯定它为假,则使CF(E)=-1; 若它以某种程度为真,则使CF(E) 为(0, 1)中的某一个值,即0CF(E)1; 若它以某种程度为假,则使CF(E)为(-1, 0)中的某一个值,即-1CF(E)0; 若对它还未获得任何相关的观察,此时可看作观察S与它无关,则使CF(E)=0。,2019/11/28,127,54,(3) 组合证据不确定性的算法 当组合证据是多
41、个单一证据的合取时,即:E = E1 and E2 and and En若已知 CF(E1), CF(E2), CF(En),则CF(E) = min CF(E1), CF(E2), CF(En) 当组合证据是多个单一证据的析取时,即:E = E1 or E2 or or En若已知 CF(E1), CF(E2), CF(En),则CF(E) = max CF(E1), CF(E2), CF(En) ,2019/11/28,127,55,(4) 不确定性的传递算法C-F 模型中的不确定性推理是从不确定的初始证据出发,通过运用相关的不确定性知识,最终推出结论并求出结论的可信度值。结论 H 的可信
42、度由下式计算:CF(H) = CF(H,E) max 0, CF(E) (5) 结论不确定性的合成算法若由多条不同知识推出了相同的结论,但可信度不同,则可 用合成算法求出综合可信度。 设有如下知识:if E1 then H (CF(H, E1)if E2 then H (CF(H, E2),当CF(E)0时,CF(H)=0, 说明该模型中没有考虑证据 为假时对结论H所产生的影响。,2019/11/28,127,56,则结论 H 的综合可信度可分如下两步算出: 首先分别对每一条知识求出 CF(H):CF1(H) = CF(H, E1) max 0, CF(E1) CF2(H) = CF(H, E
43、2) max 0, CF(E2) 然后用下述公式求出 E1 与 E2 对 H 的综合影响所形成的可信度:CF1(H) + CF2(H) CF1(H) CF2(H) 若 CF1(H) 0, CF2(H) 0CF1(H) + CF2(H) + CF1(H) CF2(H) 若 CF1(H) 0, CF2(H) 0CF1(H) + CF2(H) 1 min | CF1(H) | , | CF2(H) | 若 CF1(H) 与CF2(H) 异号,CF1,2(H) =,2019/11/28,127,57,例:有下列一组知识:r1: if E1 then H ( 0.8 )r2: if E2 then H
44、( 0.6 )r3: if E3 then H ( - 0.5 )r4: if E4 and ( E5 or E6 ) then E1 ( 0.7 )r5: if E7 and E8 then E3 ( 0.8 )已知: CH ( E2 ) = 0.8, CH ( E4 ) = 0.5,CH ( E5 ) = 0.6, CH ( E6 ) = 0.7,CH ( E7 ) = 0.6, CH ( E8 ) = 0.9,求: CF ( H ) = ?解:由已知知识得到推理网络:,H,E2,E3,E7,E8,E1,E4,E5,E6,2019/11/28,127,58,结论不确定性传递算法 由 r4
45、得到: CF( E1 ) = 0.7 max 0, CF E4 and (E5 or E6 ) = 0.7 max 0, min CF(E4) ,CF (E5 or E6 ) = 0.7 max 0, min CF(E4) , max CF ( E5 ) , CF( E6 ) = 0.7 max 0, min 0.5 , max 0.6 , 0.7 = 0.7 0.5 = 0.35由 r5 得到: CF( E3 ) = 0.9 max 0, CF ( E7 and E8 ) = 0.9 0.6= 0.54 由 r1 得到:CF1( H ) = 0.8 max 0, CF ( E1 ) = 0.
46、8 0.35 = 0.28,2019/11/28,127,59,由 r2 得到: CF2( H ) = 0.6 max 0, CF ( E2 ) = 0.6 0.8 = 0.48由 r3 得到: CF3( H ) = - 0.5 max 0, CF ( E3 ) = - 0.5 0.54 = - 0.27结论不确定性的合成算法CF1,2( H ) = CF1 ( H ) + CF2 ( H ) CF1 ( H ) CF2 ( H )= 0.28 + 0.48 0.28 0.48= 0.63CF1,2,3 ( H ) = = 0.49 即:CF( H ) = 0.49,2019/11/28,12
47、7,60,3. 可信度方法的进一步发展 C-F 模型给出了用可信度表示不确定性时进行推理的基本方法,为基于可信度表示的不确定性推理奠定了基础。但现实世界中的问题是复杂、多样的,为了用可信度方法求解更多的问题,人们在C-F 模型的基础上又提出了更具有一般性的处理方法: (1) 带有阈值限度的不确定性推理 知识表示为: if E then H (CF(H, E), ) 其中 是阈值,它对相应知识的可应用性规定了一个限度:0 1(2) 加权的不确定性推理知识表示为: if E1(1) and E2(2) and then H (CF(H,E), )其中 1, 1 , n 为加权因子。(3) 前提条件中带有可信度因子的不确定性推理知识表示为: if E1(cf1) and E2(cf2) and then H (CF(H,E), ),