人工智能知识点总结

第一章 绪论

什么是人工智能?

  1. 智能机器
    能够在各类环境中自主地或交互地执行各种拟人任务的机器。
  2. 人工智能(学科)
    人工智能(学科)是计算机科学中涉及研究、设计和应用智能机器的一个分支。它的近期主要目标在于研究用机器来模仿和执行人脑的某些智力功能,并开发相关理论和技术。
  3. 人工智能(能力)
    人工智能(能力)是智能机器所执行的通常与人类智能有关的智能行为,如判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动。

人工智能有哪些学派?

符号主义:以知识的符号表达为基础,通过推理进行问题求解
连接主义:认为人的思维基元是神经元,而不是符号处理过程
行为主义:主张从行为方面模拟、延伸、扩展人的智能,认为“智能”可以不需要“知识”

第二章 知识表示方法

什么是知识

  1. 数据与信息:
    数据是信息的载体和表示;信息是数据的语义。
  2. 知识:
    一般来说,把有关信息关联在一起所形成的信息结构称为知识。

搜索策略

  • 广度优先搜索按照“先扩展出的节点先被考察”的原则进行搜索;
  • 深度优先搜索按照“后扩展出的节点先被考察”的原则进行搜索;
  • 有界深度优先搜索的原则与深度优先搜索相同,但是它规定了深度限界,使搜索不得无限制地向纵深方向发展;
  • 代价树的广度优先搜索按照“哪个节点到根节点的代价小就先考察哪个节点”的原则进行搜索;
  • 代价树的深度优先搜索按照“当前节点的哪个子节点到其父节点的代价小就先考察哪个子节点”的原则进行搜索;
  • 局部择优搜索按照“当前节点的哪个子节点到目标节点的估计代价小就先考察哪个子节点”的原则进行搜索;
  • 全局择优搜索按照“哪个节点到目标节点的估计代价小就先考察哪个节点”的原则进行搜索

以重排九宫为例

盲目搜索

广度优先搜索

优点:
只要问题有解,用广度优先搜索总可以得到解,而且得到的是路径最短的解。
缺点:
广度优先搜索盲目性较大,当目标节点距初始节点较远时将会产生许多无用节点,搜索效率低。

深度优先搜索

1.在深度优先搜索中,搜索一旦进入某个分支,就将沿着该分支一直向下搜索。如果目标节点恰好在此分支上,则可较快地得到解。但是,如果目标节点不在此分支上,而该分支又是一个无穷分支,则就不可能得到解。所以深度优先搜索是不完备的,即使问题有解,它也不一定能求得解。
2.用深度优先求得的解,不一定是路径最短的解。
3.本质:以初始节点为根节点,在状态空间图中按照深度优先的原则,生成一棵搜索树。

有界深度优先搜索

1.如果问题有解,且其路径长度≤dm,则上述搜索过程一定能求得解。但是,若解的路径长度>dm,则上述搜索过程就得不到解。这说明在有界深度优先搜索中,深度界限的选择是很重要的。
2.要恰当地给出dm的值是比较困难的。即使能求出解,它也不一定是最优解。

代价树

上标有代价(或费用)的树称为代价树。

用g(x)表示从初始节点S0到节点x的代价,用c(x1,x2)表示从父节点x1到子节点x2的代价,则有:
g ( x 2 ) = g ( x 1 ) + c ( x 1 , x 2 ) g(x_2)=g(x_1)+c(x_1,x_2)

代价树的广度优先搜索

搜索过程

  1. 把初始节点S0放入OPEN表,令g(S0)=0。
  2. 如果OPEN表为空,则问题无解,退出。
  3. 把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。
  4. 考察节点n是否为目标节点。若是,则求得了问题的解,退出。
  5. 若节点n不可扩展,则转第2步。
  6. 扩展节点n,为每一个子节点都配置指向父节点的指针,并将各子节点放入OPEN表中;计算各子节点的代价,按各节点的代价对OPEN表中的全部节点进行排序(按从小到大的顺序),然后转第2步

代价树的深度优先搜索

搜索过程

  1. 把初始节点S0放入OPEN表,令g(S0)=0。
  2. 如果OPEN表为空,则问题无解,退出。
  3. 把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。
  4. 考察节点n是否为目标节点。若是,则求得了问题的解,退出。
  5. 若节点n不可扩展,则转第2步。
  6. 扩展节点n,将其子节点按“边”代价从小到大的顺序放到OPEN表中的首部,并为每一个子节点都配置指向父节点的指针,然后转第2步。

代价树的深度优先搜索是不完备的。

启发式搜索

盲目搜索具有较大的盲目性,产生的无用节点较多,效率不高。

启发式搜索采用问题自身的特性信息,以指导搜索朝着最有希望的方向前进。这种搜索针对性较强,因而效率较高

启发性信息与估价函数

可用于指导搜索过程,且与具体问题有关的信息称为启发性信息。
用于评估节点重要性的函数称为估价函数。其一般形式为:
f ( x ) = g ( x ) + h ( x ) f(x) = g(x)+h(x)

其中g(x)表示从初始节点S0到节点x的代价;h(x)是从节点x到目标节点Sg的最优路径的代价的估计,它体现了问题的启发性信息,称为启发函数。 f(x) 决定节点在OPEN表中的次序。
g(x) 指出了搜索的横向趋势,有利于搜索的完备性,但影响搜索的效率。
h(x)指出了搜索的纵向趋势,有利于提高搜索的效率,但影响搜索的完备性。

局部择优搜索

局部择优搜索是一种启发式搜索方法,是对深度优先搜索方法的一种改进。
基本思想:当一个节点被扩展以后,按f(x)对每一个子节点计算估价值,并选择最小者作为下一个要考察的节点。

搜索过程

  1. 把初始节点S0放入OPEN表,计算f(S0)。
  2. 如果OPEN表为空,则问题无解,退出。
  3. 把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。
  4. 考察节点n是否为目标节点。若是,则求得了问题的解,退出。
  5. 若节点n不可扩展,则转第2步。
  6. 扩展节点n,用估价函数f(x)计算每个子节点的估价值,并按估价值从小到大的顺序放到OPEN表中的首部,并为每一个子节点都配置指向父节点的指针,然后转第2步。

在局部择优搜索中,若令f(x) = g(x),则局部择优搜索就成为代价树的深度优先搜索。
在局部择优搜索中,若令f(x) =d(x),这里d(x) 表示节点x的深度,则局部择优搜索就成为深度优先搜索。
因此:深度优先搜索、代价树的深度优先搜索均为局部择优搜索的特例

全局择优搜索

每当要选择下一个节点进行考察时,全局择优搜索每次总是从OPEN表的全体节点中选择一个估价值最小的节点。
搜索过程

  1. 把初始节点S0放入OPEN表,计算f(S0)。
  2. 如果OPEN表为空,则问题无解,退出。
  3. 把OPEN表的第一个节点(记为节点n)取出放入CLOSE表。
  4. 考察节点n是否为目标节点。若是,则求得了问题的解,退出。
  5. 若节点n不可扩展,则转第2步。
  6. 扩展节点n,用估价函数f(x)计算每个子节点的估价值,并为每一个子节点都配置指向父节点的指针。把这些子节点都送入OPEN表中,然后对OPEN表中的全部节点按估价值从小至大的顺序进行排序,然后转第2步。

在全局择优搜索中,若令f(x) = g(x),则它就成为代价树的广度优先搜索。
在全局择优搜索中,若令f(x) =d(x),这里d(x) 表示节点x的深度,则它就成为广度优先搜索。
因此:广度优先搜索、代价树的广度优先搜索是全局择优搜索的两个特例。

例子
设估价函数为 f(x)=d(x)+h(x),其中,d(x)表示节点x的深度,h(x)表示节点x的格局与目标节点格局不相同的牌数。
[外链图片转存失败(img-8Bhj0Oh9-1562232606973)(人工智能/7.png)]

第三章

变量代换

代换是一个形如 { t 1 / x 1 , t 2 / x 2 , , t n / x n } \{t_1/x_1,t_2/x_2,…,t_n/x_n\} 的有限集合。
其中 t 1 , t 2 , , t n t_1,t_2,…,t_n 是项(常量、变量、函数); x 1 , x 2 , , x n x_1,x_2,…,x_n 是(某一公式中)互不相同的变元;
t i / x i t_i/x_i 表示用 t i t_i 代换 x i x_i
不允许 t i t_i x i x_i 相同,也不允许变元 x i x_i 循环地出现在另一个 t j t_j 中。

例如:
{a/x,f(b)/y,w/z}是一个代换
{g(y)/x,f(x)/y}不是代换
{g(a)/x,f(x)/y}是代换

代换的复合

定义 设
θ = { t 1 / x 1 , t 2 / x 2 ,   , t n / x n } \theta=\{t_1/x_1,t_2/x_2,\cdots,t_n/x_n\}
λ = { u 1 / y 1 , u 2 / y 2 ,   , u m / y m } \lambda=\{u_1/y_1,u_2/y_2,\cdots,u_m/y_m\}
是两个代换
则这两个代换的复合也是一个代换,它是从
{ t 1 λ / x 1 , t 2 λ / x 2 ,   , t n λ / x n , u 1 / y 1 , u 2 / y 2 ,   , u m / y m } \{t_1\lambda/x_1,t_2\lambda/x_2,\cdots,t_n\lambda/x_n,u_1/y_1,u_2/y_2,\cdots,u_m/y_m\}
中删去如下两种元素:
t i λ / x i t i λ = x i t_i\lambda/x_i \quad 当t_i\lambda=x_i
u i / y i y i { x 1 , x 2 ,   , x n } u_i/y_i \quad 当y_i\in\{x_1,x_2,\cdots,x_n\}
后剩下的元素所构成的集合,记为θ°λ

(1) t i λ t_i\lambda 表示对 t i t_i 运用λ进行代换。
(2)θ°λ就是对一个公式F先运用θ进行代换,然后再运用λ进行代换:F(θ°λ)=(F θ)λ

最一般合一

  • F={P(a,x,f(g(y))),P(z,f(z),f(u))}
  • 求其最一般合一的过程:
  • 令F0=F, σ0=ε。 F0中有两个表达式,所以σ0不是最一般合一。
    差异集:D0={a,z}。代换: {a/z}
    F1= F0 {a/z}={P(a,x,f(g(y))),P(a,f(a),f(u))} 。
    σ1=σ0°{a/z}={a/z}
    D1={x,f(a)} 。代换: {f(a)/x}
    F2=F1{f(a)/x}={P(a,f(a),f(g(y))),P(a,f(a),f(u))} 。
    σ2=σ1°{f(a)/x}={a/z,f(a)/x}
    D2={g(y),u} 。代换: {g(y)/u}
    F3=F2{g(y)/u}={P(a,f(a),f(g(y))),P(a,f(a),f(g(y)))} 。
    σ3=σ2°{g(y)/u}={a/z,f(a)/x,g(y)/u}

子句集

定义: 任何文字的析取式称为子句
(1) 合取范式:C1 ∧C2 ∧C3… ∧Cn
(2) 子句集: S= {C1 ,C2 ,C3… ,Cn}
(3)任何谓词公式F都可通过等价关系及推理规则化为相应的子句集S

把谓词公式化成子句集

  1. 利用等价关系消去“→”和“↔”
    例如公式
    ( x ) ( ( y ) P ( x , y ) ¬ ( y ) ( Q ( x , y ) R ( x , y ) ) ) (\forall x)((\forall y) P(x, y) \rightarrow \neg(\forall y)(Q(x, y) \rightarrow R(x, y)))
    可等价变换成
    ( x ) ( ¬ ( y ) P ( x , y ) ¬ ( y ) ( ¬ Q ( x , y ) R ( x , y ) ) ) (\forall x)(\neg(\forall y) P(x, y) \vee \neg(\forall y)(\neg Q(x, y) \vee R(x, y)))
  2. 利用等价关系把“¬”移到紧靠谓词的位置上
    上式经等价变换后
    ( x ) ( ( y ) ¬ P ( x , y ) ( y ) ( Q ( x , y ) ¬ R ( x , y ) ) ) (\forall x)((\exists y) \neg P(x, y) \vee(\exists y)(Q(x, y) \wedge \neg R(x, y)))
  3. 重新命名变元,使不同量词约束的变元有不同的名字
    上式经变换后
    ( x ) ( ( y ) ¬ P ( x , y ) ( z ) ( Q ( x , z ) ¬ R ( x , z ) ) ) (\forall x)((\exists y) \neg P(x, y) \vee(\exists z)(Q(x, z) \wedge \neg R(x, z)))
  4. 消去存在量词
    a.存在量词前面没有全称量词时,则只要用一个新的个体常量替换受该量词约束的变元。
    b.存在量词前面有一个或者多个全称量词时,要用函数f(x1,x2,…,xn)替换受该存在量词约束的变元。
    上式中存在量词( y \exists y )及( z \exists z )都位于( x \forall x )的后面,所以需要用函数替换,设替换y和z的函数分别是f(x)和g(x),则替换后得到
    ( x ) ( ¬ P ( x , f ( x ) ) ( Q ( x , g ( x ) ) ¬ R ( x , g ( x ) ) ) ) (\forall x)(\neg P(x, f(x)) \vee(Q(x, g(x)) \wedge \neg R(x, g(x))))
  5. 把全称量词全部移到公式的左边
    ( x ) ( ¬ P ( x , f ( x ) ) ( Q ( x , g ( x ) ) ¬ R ( x , g ( x ) ) ) ) (\forall x)(\neg P(x, f(x)) \vee(Q(x, g(x)) \wedge \neg R(x, g(x))))
  6. 利用等价关系把公式化为Skolem标准形
    P ( Q R ) ( P Q ) ( P R ) P \vee(Q \wedge R) \Leftrightarrow(P \vee Q) \wedge(P \vee R)
    Skolem标准形的一般形式是
    ( x 1 ) ( x 2 ) ( x n ) M \left(\forall x_{1}\right)\left(\forall x_{2}\right) \cdots\left(\forall x_{n}\right) M
    其中,M是子句的合取式,称为Skolem标准形的母式。
    上式化为Skolem标准形后得到
    ( x ) ( ( ¬ P ( x , f ( x ) ) Q ( x , g ( x ) ) ) ( ¬ P ( x , f ( x ) ) ¬ R ( x , g ( x ) ) ) ) (\forall x)((\neg P(x, f(x)) \vee Q(x, g(x))) \wedge(\neg P(x, f(x)) \vee \neg R(x, g(x))))
  7. 消去全称量词
  8. 对变元更名,使不同子句中的变元不同名
    ( ¬ P ( x , f ( x ) ) Q ( x , g ( x ) ) ) ( ¬ P ( y , f ( y ) ) ¬ R ( y , g ( y ) ) ) (\neg P(x, f(x)) \vee Q(x, g(x))) \wedge(\neg P(y, f(y)) \vee \neg R(y, g(y)))
  9. 消去合取词,就得到子句集
    ¬ P ( x , f ( x ) ) Q ( x , g ( x ) ) \neg P(x, f(x)) \vee Q(x, g(x))
    ¬ P ( y , f ( y ) ) ¬ R ( y , g ( y ) ) \neg P(y, f(y)) \vee \neg R(y, g(y))

海伯伦理论(Herbrand)

为了判断子句集的不可满足性,需要对所有可能论域上的所有解释进行判定。只有当子句集对任何非空个体域上的任何一个解释都是不可满足的时候,才可断定该子句集是不可满足的。

鲁滨逊归结原理

子句集S的不可满足性:

对于任意论域中的任意一个解释,S中的子句不能同时取得真值T。一旦S中包含空子句,则S必不可满足。

基本思想:

检查子句集S中是否包含空子句。若包含,则S不可满足;若不包含,就在子句集中选择合适的子句进行归结,一旦通过归结能推出空子句,就说明子句集S是不可满足的。

归结反演的步骤

设F为已知前提的公式集,Q为目标公式(结论),用归结反演证明Q为真的步骤是:

  1. 否定Q,得到¬Q;
  2. 把¬Q并入到公式集F中,得到{F, ¬Q};
  3. 把公式集{F, ¬Q}化为子句集S;
  4. 应用归结原理对子句集S中的子句进行归结,并把每次归结得到的归结式都并入S中。如此反复进行,若出现了空子句,则停止归结,此时就证明了Q为真。

应用归结原理求取问题的答案

求解的步骤:

  1. 把已知前提用谓词公式表示出来,并且化为相应的子句集。设该子句集的名字为S。
  2. 把待求解的问题也用谓词公式表示出来,然后把它否定并与谓词Answer构成析取式。Answer是一个为了求解问题而专设的谓词,其变元须与问题公式的变元完全一致。
  3. 把此析取式化为子句集,并且把该子句集并入到子句集S中,得到子句集S’。
  4. 对S’应用归结原理进行归结。
  5. 若得到归结式Answer,则答案就在Answer中。

第四章

可信度方法

概念

  • 根据经验对一个事物和现象为真的相信程度称为可信度。
  • 在可信度方法中,由专家给出规则或知识的可信度,从而可避免对先验概率、条件概率的要求。
  • 可信度方法首先在专家系统MYCIN中得到了成功的应用。

C-F模型

组合证据不确定性的算法

可采用最大最小法。
E = E 1  AND  E 2  AND   AND  E n \mathrm{E}=\mathrm{E}_{1} \text { AND } \mathrm{E}_{2} \text { AND } \ldots \text { AND } \mathrm{E}_{\mathrm{n}} ,则
C F ( E ) = min { C F ( E 1 ) , C F ( E 2 ) , , C F ( E n ) } \mathrm{CF}(\mathrm{E})=\min \left\{\mathrm{CF}\left(\mathrm{E}_{1}\right), \mathrm{CF}\left(\mathrm{E}_{2}\right), \ldots, \mathrm{CF}\left(\mathrm{E}_{n}\right)\right\}
E = E 1  OR  E 2  OR   OR  E n \mathrm{E}=\mathrm{E}_{1} \text { OR } \mathrm{E}_{2} \text { OR } \ldots \text { OR } \mathrm{E}_{\mathrm{n}} ,则
C F ( E ) = max { C F ( E 1 ) , C F ( E 2 ) , , C F ( E n ) } \mathrm{CF}(\mathrm{E})=\max \left\{\mathrm{CF}\left(\mathrm{E}_{1}\right), \mathrm{CF}\left(\mathrm{E}_{2}\right), \ldots, \mathrm{CF}\left(\mathrm{E}_{\mathrm{n}}\right)\right\}

结论不确定性的合成算法

若由多条不同知识推出了相同的结论,但可信度不同,则用合成算法求出综合可信度。
设有如下知识:
IF E 1 \quad \mathrm{E}_{1} \quad THEN H ( C F ( H , E 1 ) ) \quad \mathrm{H} \quad\left(\mathrm{CF}\left(\mathrm{H}, \mathrm{E}_{1}\right)\right)
IF E 2 \quad \mathrm{E}_{2} \quad THEN H ( C F ( H , E 2 ) ) \quad \mathrm{H} \quad\left(\mathrm{CF}\left(\mathrm{H}, \mathrm{E}_{2}\right)\right)
则结论H的综合可信度分如下两步算出:
首先分别对每一条知识求出 C F ( H ) CF(H) : 计算 C F 1 ( H ) CF_1(H) , C F 2 ( H ) CF_2(H)
然后用下述公式求出E1与E2对H的综合可信度 C F 12 ( H ) CF_{12}(H) :
P ( H S ) = { C F 1 ( H ) + C F 2 ( H ) C F 1 ( H ) × C F 2 ( H ) , C F 1 ( H ) 0 , C F 2 ( H ) 0 C F 1 ( H ) + C F 2 ( H ) + C F 1 ( H ) × C F 2 ( H ) , C F 1 ( H ) < 0 , C F 2 ( H ) < 0 C F 1 ( H ) + C F 2 ( H ) 1 min { C F 1 ( H ) , C F 2 ( H ) } , C F 1 ( H ) × C F 2 ( H ) < 0 P(H | S)=\left\{\begin{array}{ll}{C F_{1}(H)+C F_{2}(H)-C F_{1}(H) \times C F_{2}(H), C F_{1}(H) \geq 0, C F_{2}(H) \geq 0}\\ {C F_{1}(H)+C F_{2}(H)+C F_{1}(H) \times C F_{2}(H), C F_{1}(H)<0, C F_{2}(H)<0}\\{\frac{C F_{1}(H)+C F_{2}(H)}{1-\min \left\{\left|C F_{1}(H)\right|, C F_{2}(H) |\right\}} \qquad, C F_{1}(H) \times C F_{2}(H)<0}\end{array}\right.

例题

例 设有如下一组知识:
R1: IF	E1	THEN		H	(0.8)
R2: IF	E2	THEN		H	(0.6)
R3: IF	E3	THEN		H	(-0.5)
R4: IF	E4 AND (E5 OR E6)	THEN		E1	(0.7)
R5: IF	E7 AND E8 THEN		E3	(0.9)
已知:CF(E2)=0.8, CF(E4)=0.5, CF(E5)=0.6
		CF(E6)=0.7, CF(E7)=0.6, CF(E8)=0.9
求:CF(H)=?
解:由R4得到:
CF(E1)=0.7×max{0,CF[E4 AND (E5 OR E6)]}
	   =0.7×max{0,min{CF(E4),CF(E5 OR E6)}}
	   =0.35
由R5得到:
CF(E3)=0.9×max{0,CF[E7 AND E8]}
	   =0.54
由R1得到:
CF1(H)=0.8×max{0,CF(E1)}=0.28
由R2得到:
CF2(H)=0.6×max{0,CF(E2)}=0.48
由R3得到:
CF3(H)=-0.5×max{0,CF(E3)}=-0.27
根据结论不确定性的合成算法:
CF12(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)=0.63
CF123(H)=[CF12(H)+CF3(H)]/[1-min{|CF12(H)|,|CF3(H)|}]
		  =0.49
即最终的综合可信度为CF(H)=0.49。

加权的不确定性推理

若有 C F ( E 1 ) C F ( E 2 ) C F ( E n ) CF(E_1),CF(E_2),…,CF(E_n) ,则组合证据的可信度为:
C F ( E ) = i = 1 n ( ω i × C F ( E i ) ) C F(E)=\sum_{i=1}^{n}\left(\omega_{i} \times C F\left(E_{i}\right)\right)

例题

例设有如下知识:
R1: IF E1(0.6) AND E2(0.4) THEN E6(0.8,0.75)
R2: IF E3(0.5) AND E4(0.3) AND E5(0.2) 
	 THEN E7(0.7,0.6)
R3: IF E6(0.7) AND E7(0.3) THEN H(0.75,0.6)
已知:CF(E1)=0.9, CF(E2)=0.8, CF(E3)=0.7,
		CF(E4)=0.6, CF(E5)=0.5
求:CF(H)=?
解:由R1得到:
CF(E1(0.6) AND E2(0.4))=0.86>λ1=0.75
∴R1可被应用。
由R2得到:
CF(E3(0.5) AND E4(0.3) AND E5(0.2))=0.63>λ2 =0.6
∴R2可被应用。
∵0.86>0.63 
∴R1先被应用。
由R1得到:CF(E6)=0.69
由R2得到:CF(E7)=0.44
由R3得到:
CF(E6(0.7) AND E7(0.3))=0.615>λ3 =0.6
∴R3可被应用,得到:
CF(H)=0.46
即最终得到的结论H可信度为0.46

第五章

扎德法推理

扎德提出了两种方法:一种称为条件命题的极大极小规则;另一种称为条件命题的算术规则,由它们获得的模糊关系分别记为 R m R_m R a R_a
A F ( U ) , B F ( V ) A \in F(U), B \in F(V) ,其表示分别为
A = U μ A ( u ) / u , B = V μ B ( u ) / u A=\int_{U} \mu_{A}(u) / u \quad, B=\int_{V} \mu_{B}(u) / u

x , , , ¬ , x, \cup, \cap, \neg, \oplus 分别表示模糊集的笛卡儿乘积、并、交、补及有界和运算,则扎德把 R m R_m R a R_a 分别定义为:
R m = ( A × B ) ( ¬ A × V ) = U × V ( μ A ( u ) μ B ( v ) ) ( 1 μ A ( u ) ) / ( u , v ) R_{m}=(A \times B) \cup(\neg A \times V)=\int_{U \times V}\left(\mu_{A}(u) \wedge \mu_{B}(v)\right) \vee\left(1-\mu_{A}(u)\right) /(u, v)
R a = ( ¬ A × V ) ( U × B ) = U × V 1 ( 1 μ A ( u ) + μ B ( v ) ) / ( u , v ) R_{a}=(\neg A \times V) \oplus(U \times B)=\int_{U \times V} 1 \wedge\left(1-\mu_{A}(u)+\mu_{B}(v)\right) /(u, v)

例子

例 设 U = V = { 1 , 2 , 3 , 4 , 5 } , A = 1 / 1 + 0.5 / 2 , B = 0.4 / 3 + 0.6 / 4 + 1 / 5 \mathbf{U}=\mathbf{V}=\{1,2,3,4,5\}, \mathbf{A}=\mathbf{1} / 1+0.5 / 2, \mathbf{B}=0.4 / 3+0.6 / 4+1 / 5
并设模糊知识及模糊证据分别为:
 IF  x  is A THEN  y  is  B x  is  A \text { IF }x \text { is A THEN } y \text { is } B \quad x \text { is } A^{\prime}
其中,$ A{\prime}$的模糊集为:$\mathbf{A}{\prime}=\mathbf{1} / \mathbf{1}+\mathbf{0} .4 / 2+\mathbf{0} .2 / 3$
则由模糊知识可分别得到 R m R_m R a R_a
R m = [ 0 0 0.4 0.6 1 0.5 0.5 0.5 0.5 0.5 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ] , R a = [ 0 0 0.4 0.6 1 0.5 0.5 0.9 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ] R_{m}=\left[\begin{array}{ccccc}{0} & {0} & {0.4} & {0.6} & {1} \\ {0.5} & {0.5} & {0.5} & {0.5} & {0.5} \\ {1} & {1} & {1} & {1} & {1} \\ {1} & {1} & {1} & {1} & {1} \\ {1} & {1} & {1} & {1} & {1}\end{array}\right], R_{a}=\left[\begin{array}{ccccc}{0} & {0} & {0.4} & {0.6} & {1} \\ {0.5} & {0.5} & {0.9} & {1} & {1} \\ {1} & {1} & {1} & {1} & {1} \\ {1} & {1} & {1} & {1} & {1} \\ {1} & {1} & {1} & {1} & {1}\end{array}\right]

B m = A R m = { 0.4 , 0.4 , 0.4 , 0.6 , 1 } \mathbf{B}_{\mathrm{m}}^{\prime}=\mathbf{A}^{\prime} \circ \mathbf{R}_{\mathrm{m}}=\{0.4,0.4,0.4,0.6,1\}
B a = A R a = { 0.4 , 0.4 , 0.4 , 0.6 , 1 } \mathbf{B}_{\mathrm{a}}^{\prime}=\mathbf{A}^{\prime} \circ \mathbf{R}_{\mathrm{a}}=\{0.4,0.4,0.4,0.6,1\}

猜你喜欢

转载自blog.csdn.net/DreamTime666/article/details/94635738