基于信息熵的Markov网络结构学习算法研究
扫描二维码
随时随地手机看文章
1 引言
日常生活中人们常需要处理不确定信息,例如:预测明天是否会下雨,病人是否得了某种疾病。Bayesian网是进行不确定性推理的有力工具,被广泛应用于人工智能、专家系统、数据挖掘等领域,是当前研究的热点。利用Bayesian网可以推理不确定性知识,从而达到较好效果。
Markov网是类似于Bayesian网的另一种进行不确定性推理的有力工具。Markov网是一个无向图,构造时无需发现边的方向,要比构造Bayesian网容易得多。首先构造Markov网,再求出与之等价的Bayesian网。本文提出一种基于信息熵的方法构造Markov网,给出一个有效的基于信息独立测试的Markov网的构造算法,该算法是一种基于依赖分析的算法。在测试样本中的条件独立时,利用信息论中验证信息独立的一个重要结论,从而大大提高效率。为衡量构造的Markov网的好坏,引入I-图、D-图和P-图的概念。
2 依赖模型与MarkOV网
知识可以用一组条件独立和条件概率表示,Markov网(无向图)用于表示条件独立。下面主要讨论如何用Markov网表示一个依赖模型M(一组条件独立的集合)以及如何衡量Markov网的好坏(引入I-图、D-图和最小P-图)。
定义1:依赖模型M定义为一组条件独立的集合,设X,Y,Z是全集U的3个不相交的子集,M={I(X,Z,y)}。其中的I(X,Z,y)表示在给定Z的条件下,X独立于Y,即:p(X|Y,Z)=p(X|Z)和p(Y|X,Z)=p(Y|Z)。
定理1:依赖模型M中的I(X,Z,y)满足以下4个性质,设X,Y,Z是全集U的3个不相交的子集,
(1)对称性:I(X,Z,Y)XXXXXXI(Y,Z,X);
(2)分解律:I(X,Z,Y∪W)=》I(X,Z,Y)&I(X,Z,W);
(3)弱归并律:I(X,Z,Y∪W)→I(X,Z,∪W,Y);
(4)减缩律:I(X,Z,y)&I(X,Z,∪Y,W)→I(X,Z,Y∪W)若联合概率函数p严格为正,Vx,p(x)>0,则相交律成立。
(5)相交律:I(X,Z,∪W,Y)&I(X,Z,∪Y,W)→I(X,Z,Y∪W)给定一个依赖模型M,利用无向图中节点分割的概念表示依赖模型中的条件独立。
定义2:在有向无环图G中,X,Y,Z是U上3个不相交的子集,删去节点集Z及其相应的边,使节点集X,Y之间再无边相连,称Z将X,Y分割开,记为<X|Z|Y>G。用<X|Z|Y>G表示依赖模型中条件独立信息I(X,Z,Y),得到一个依赖模型的图形化表示方式,继续用I-图、P-图、D-图的概念衡量依赖模型M中的所有条件独立信息和最优Markov网。
定义3:设M为依赖模型,I(X,y,Z)M表示依赖模型M所蕴含的依赖关系(条件独立)I(X,y,Z)。无向图G=(V,E)为M的I-图、D-图、P-图,定义如下:
(1)G是M的I-图(独立图),当<X|Z|Y>G=<X|Z|Y>M。
(2)G是M的D-图(依赖图),当<X|Z|Y>M=><X|Z|Y>G。
(3)G是M的P-图(理想图),当<X|Z|Y>M<=<<X|Z|Y>G。
由上述定义可知,I-图不一定包含依赖模型M所蕴含的所有依赖关系,但I-图中蕴含的依赖关系M中一定蕴含;D-图恰好相反,D-图包含依赖模型M所蕴含的所有依赖关系,但D-图中蕴含的依赖关系M中不一定蕴含;P-图是最理想的情况,P-图与M形成一一对应关系。空图(不含任何边的无向图)是一个平凡的D-图,而完全图(包含所有边的无向图)是一个平凡的I-图。
定义4:设一个无向图G是M的一个I-图,若删除G中任何一条边后,使得G不再是M的I-图,则称G为M的最小I-图。显然,最小I-图能够最多地表示依赖模型M中的依赖关系。
定理2:满足对称性、分解性、相交律和弱归并律的依赖模型M,从完全图中删除所有条件独立性成立的边,则产生一个唯一的最小I-图。
3 信息熵概述
Markov网结构用来消除不确定性的东西,信息的载体称为消息。含有信息的消息集合称为信源。信源的信息熵,就是信源提供整个信息的总体度量。所以如果消息消除的不确定性越大,信源的信息熵就越小,信息间的相互依赖性就越大;反之,信息间的相互独立性就越大。具体概念作如下定义:
定义5:设属性X具有r种可能状态,Pi为状态Xi时的概率,则信息熵可定义为:
式中,C为大于0的常数。
定义6:设X,Y为两个相互关联的随机变量,称:为X,Y的联合熵。H(X|Y)=H(X,i=1j=1Y)-H(Y)为给定Y时X的条件熵。条件熵H(X|Y)表示在观测到Y的结果后,对X保留的不确定性度量。
定义7:设X,Y,Z为3个不相交的变量集,称:的互信息。
为给定Z的条件下,X和Y的互信息(条件互信息)。
定理3:互信息I(X,Y)和I(X,Y|Z)具有如下性质:
(1)对称性,即I(X,Y)=I(Y,X|Z)和I(X,Y|Z)=I(Y,X|Z);
(2)非负性,即I(X,Y)≥0和I(X,Y|Z)≥0。而且,当且仅当X和Y条件独立时有I(X,Y)=0。同理,当且仅当在给定条件Z,X和Y条件独立时I(X,Y|Z)=0。
4 基于信息熵的Markov网构造算法
给定一样本集(n个属性的一张二维表),先对系统中N个变量构建一个完全无向图氏,然后利用信息独立测试理论有效删剪PG图,以得到所求的Markov网。
首先给出这个算法所需要的一些假设:给定的样本数据集D是完整的;所有的变量取值均为离散性,若取值连续可先进行离散化。
第1步:构造完全有向图
定义8:设一个系统含有N个变量{X1,X2,……,Xn},完全有向图PG={<Xi,Xj>|,其中i,j=1,2,…,n且i≠j,<Xi,Xj>表示Xi与Xj有因果关系Xi→Xj}。由此定义可知,PG是一个I-图。
第2步:有效删剪PG图
从定理3的性质2可得到一个判断X,Y是否条件独立的算法:当给出一个概率分布P(x)时,可通过判断I(X,Y|Z)=0代替I(X,Y|Z),从而PG图中的X→Y和Y→X边可删除;否则。在给定条件Z的情况下,X和Y互相依赖。然而在实际计算中并没有一个真正的概率分布P(x),只有一个基于样本数据集D而计算的一个经验概率分布PD(x)近似估计P(x),计算的I(X,Y|Z)只是基于PD(x)上的I(X,Y|Z)近似值,所以其值总大于0。为此,判断条件独立方法可描述为:
定理4:设X,Y,Z为全集U上3个不相交的子集,基于样本数据集D上概率分布PD(x),如果有:I(X,Y|Z)<ε,则判定给定Z,X与Y条件独立;否则给定Z,X与Y是条件依赖的。其中ε为一个阈值,通常取一个很小的正数。
由定理4可知,经这一步删减,在不考虑边的方向情况下,PG图是一个最小I-图,即所要构造的Markov网。其算法如下:
(1)输入样本数据集D,节点集U,阈值ε1
(4)输出V
由以上算法可知:整个算法是计算复杂度为O(/N2)的条件独立性CI(Conditional Independence)测试。
5 实例分析
此例来自对华盛顿高级中学131名高年级学生的升学计划调查,每个学生用下列变量及其相应的状态来描述:性别(X1):男、女;社会经济状态(X2):低、中下、中上、高:智商(X3):低、中下、中上、高;家长的鼓励(X4):低、高;升学计划(X5):是、否。样本数据:下面的数据表示对5个变量取值的某种组合统计所得到的人数,例如:第一个数据4表示对(X1=男,X2=低,X3=低,X4=低,X5=是)这种组合所统计出的人数。变量依次按从右到左的顺序轮换,状态则按照上述所列各变量状态的顺序进行轮换,依此类推,得到完全统计数据如下:4,349,13,64,9,207,33,72,12,126,38,54,10,67,49,43,2,232,27,84,7,201,64,95,12,115,93,92,17,79,119,59,8,166,47,91,6,120,74,110,17,92,148,100,6,42,198,73,4,48,39,57,5,47,123,90,9,41,224,65,8,17,414,54,5,454,9,44,5,312,14,47,8,216,56,35,13,96,28,24,11,285,29,61,19,236,47,88,12,164,62,85,15,113,72,50,7,163,36,72,13,193,75,90,12,174,91,100,20,8l,142,77,6,50,36,58,5,70,110,76,12,48,230,81,13,49,360,98Heckerman等用基于统计打分搜索算法得到如图1所示的两种最有可能的结构。
基于图1所示的算法计算结果如下:取阈值为0.007和0.001,经计算得到图2a的结构,根据专家知识可知:性别、社会经济状态是不会有父节点的,所以对X1<=>X4和X2<=>X3两种依赖关系可修订为X1=>X4和X2=>X3,由此得到图2b所示的结构。因此,可以看出,图1a和图2b是一样的。根据Markov的理论和特征,得到Markov网结构,如图3所示。
6 结束语
通过认真研究信息熵理论知识得到基于信息熵的Markov网算法,在一定程度上简化了Bayesian网推理过程,提高了推理效率,对知识的不确定推理研究具有参考价值。