找回密码
 立即注册
查看: 591|回复: 1

PC 算法

[复制链接]
发表于 2021-11-19 19:44 | 显示全部楼层 |阅读模式
把大三的时候在实验室摸鱼看贝叶斯网络和 PC 算法时写的笔记整理到这里来,免得哪天我换电脑时把笔记搞没了。
P.S. 我博客上的排版大概会稍微好一点?
概率图模型

对于一个  维随机向量 ,一般难以直接建模。因为如果每个变量为离散变量并有 个可能取值,在不作任何独立性假设的前提下,需要 个参数才能表示其概率分布,参数数量会非常庞大。

一种减少参数数量的方法是独立性假设。把    的联合概率分解为  个条件概率的乘积:



为随机向量  的取值。可以看到,如果某些变量之间存在条件独立,参数数量就可以大幅减少。

因此,概率图模型(Probabilistic Graphical Model,PGM)用图结构来描述多元随机变量之间的条件独立关系,从而为研究高维空间中的概率模型带来了很大的便捷。

概率图模型中,每个节点表示一个(或一组)随机变量,边表示这些随机变量之间的概率依赖关系。常见的概率图模型可以分为有向图模型和无向图模型。
    有向图模型(Directed Graphical Model),也称为贝叶斯网络(Bayesian Network)或信念网络(Belief Network),使用有向无环图(Directed Acyclic Graph,DAG)来描述变量之间的关系。如果两个节点之间有连边,表示这两个变量之间有因果关系,即不存在其他变量使得这两个变量条件独立。无向图模型,也称为马尔可夫随机场(Markov Random Field,MRF),使用无向图来描述变量之间的关系。两个节点之间有连边代表这两个变量之间有概率依赖关系,但不一定是因果关系。



图片来源:《神经网络与深度学习》:https://nndl.github.io

本文只讨论有向图模型,即贝叶斯网络。
<hr/>贝叶斯网络

定义

有向无环图  中,每个节点对应  维随机向量  中的一个变量,有向边 表示随机变量  和  之间具有因果关系,父节点    是『因』,子节点    是『果』,显然这两个点之间一定非条件独立。
为变量  的所有父节点变量集合, 表示每个随机变量的局部条件概率分布(Local Conditional Probability Distribution)。

如果    的联合概率分布可以分解为每个随机变量  的局部条件概率的连乘形式,即:


那么称 构成了一个贝叶斯网络。
局部马尔可夫性质

每个随机变量在给定父节点的情况下,条件独立于它的非后代节点:


其中  为  的非后代节点。
基本问题

    学习问题
      结构学习:那么怎样才可以获得这个神奇的有向无环图呢,这就是结构学习问题。即学习出最优网络结构,也就是各节点之间的依赖关系。传统的的结构学习方法主要可以分为:
        基于评分搜索的方法:利用搜索算法和评分函数,对每一个搜索到的网络结构进行评分,最终搜索出评分最高的网络结构。搜索算法的复杂度和精确度直接决定了学习算法的搜索效率,评分函数的优劣也直接决定了算法的计算复杂度和精确度。所以选择合理的优化搜索算法和评分函数是该类方法的核心问题。该类方法容易陷入局部最优解而无法达到全局最优,并且结构空间的随节点的增加呈指数增加(空间复杂度)。基于依赖统计分析的方法:分析变量间的依赖关系,在依赖性较大的两节点之间添加连接边,得到无向图。然后根据包含关系等方式确定无向图中边的方向,得到最终的有向无环图。本文要讨论的 PC 算法就是这类方法中(比较古老)的一种。该类方法能获得全局最优解,但随着节点的增加,算法的时间复杂度会增加得很快;并且它不能区分同属于一个马尔可夫等价类的图,这一点后面会讲到。
      参数学习:在给定网络结构时,确定网络参数,即参数估计问题:
        不含隐变量:如果图模型中不含隐变量(latent variable),即所有变量都是可观测的,那么网络参数一般可以直接通过最大似然来进行估计。含隐变量:有些时候    中的变量有很复杂的依赖关系,这时通常会引入隐变量   来简化模型。如果图模型中包含隐变量,即有部分变量是不可观测的,这时就需要用 EM 算法(Expectation Maximum,期望最大化算法)来进行参数估计。如果 EM 算法中的后验是 intractable 的,那么又需要用变分推断(Variational Inference)来寻找一个简单分布来近似后验。你可能会想到用神经网络去拟合这个后验不就完事儿了,是的这就是变分自编码器(Variational Auto-Encoder,VAE)的思想。本文不讨论参数学习问题,但我在我的笔记本上写了一些参数学习相关的东西,有兴趣的话可以看一看。

    推断问题:在已知部分变量时,计算其他变量的条件概率分布
<hr/>PC 算法

好的现在讲主题了,用 PC 算法[1]来学习出贝叶斯网络的结构。如上文所述,PC 算法会先确定节点间的依赖关系(但不确定方向),即先生成一个无向图,然后再确定依赖方向,把无向图扩展为完全部分有向无环图(Completed Partially Directed Acyclic Graph,CPDAG)。
依赖关系确立

设    是输入点集,有以下步骤:
    在  上生成完全无向图  对于  中的两个相邻点  ,如果  和  能在给定节点 时条件独立,则删除  和  之间的边
这样会得到一个无向图,图中的无向边表示它连接的两个节点之间有依赖(因果)关系,这样的无向图叫骨架(skeleton)。PC 算法把上述过程转化为了 d 分隔(d-separation)[2]问题。
d 分隔

节点集合  能 d 分隔节点  与节点  ,当且仅当:给定  时,  与  之间不存在有效路径(active path),即  和  在  下条件独立(记作 )。
用  表示能够 d 分隔  和  的点集,用 表示图  中节点  的相邻点集,那么 PC 算法检验条件独立性的具体流程为[3]:



Estimating High-Dimensional Directed Acyclic Graphs with the PC-Algorithm

简单总结一下:
    repeat
      for 每个相邻点对
        for 或   的所有可能的节点数为    的子集
          测试  能否 d 分隔   如果能,说明  和  之间不存在有效的依赖关系,所以删除边 ,并将这个点集加入    和  break

      until 当前图中的所有的邻接点集都小于  

Fisher Z Test

为了判断 d 分隔,我们需要对任意两个节点进行条件独立性检验,PC 算法采用了 Fisher Z Tes[4]作为条件独立性检验方法。实际上 Fisher Z Test 是一种相关性检验方法,但 PC 算法认为这一堆随机变量整体上服从多元高斯分布,这时变量条件独立与变量之间的偏相关系数为 0 等价(多元高斯分布的基本特性,证明过程可以参考 Steffen L. Lauritzen 的课件[5]第 4.2.1 节),所以可以用 Fisher Z Test 进行条件独立性检验。

偏相关系数指校正其它变量后某一变量与另一变量的相关关系,校正的意思可以理解为假定其它变量都取值为均数。任意两个变量  的  阶(排除其他  个变量的影响后, )偏相关系数为:



为了判断  是否为 0,需要将  通过 Fisher Z 变换[6]转换成正态分布:



定义零假设和对立假设:
    零假设: 对立假设:
然后给定一个显著性水平 ,那么(双侧)检验的规则为,如果有:


其中    为 的累积分布函数,则拒绝零假设, 关于   条件独立。所以将上面伪代码的第 11 行替换为 “if “。
依赖关系方向确立

经过上一个阶段,我们得到了一个无向图。现在我们要利用 d 分隔的原理来确定图中边的依赖方向,把骨架扩展为 DAG。

对于任意三个以有效依赖关系边相连的节点 ,其依赖关系必为下图的四种关系之一:


d 分隔的结论为:对于有向无环图 ,有两个节点  和一个点集  ,为了判断  和  是否关于  条件独立,考虑  中所有  和  之间的无向路径,对于其中一条路径,如果它满足以下两个条件中的任意一条,则称这条路径是阻塞的:
    路径中存在某个节点  是 head-to-tial(图中情况 a, b)或 tail-to-tail 节点(图中情况 c),且  包含在  中路径中存在某个节点  是 head-to-head 节点(图中情况 d),且  没有被包含在  中
如果  间所有的路径都是阻塞的,那么  关于  条件独立;否则, 不关于关于  条件独立。
而我们已经记录了 d 分隔  和  的点集 ,因此我们可以由 d 分隔的结论反推出贝叶斯网络中边的方向,方向的判断方法可以转换成以下三条规则:
    规则 1:如果存在 ,把 变为 规则 2:如果存在 ,把  变为  规则 3:如果存在 ,且  不相邻,把  变为
实际上还可以推出一个规则 4:
    规则 4:如果存在 ,且  不相邻,把  变为   
但很显然这种情况是矛盾的,不可能存在,所以不用考虑。
总结一下:



Estimating High-Dimensional Directed Acyclic Graphs with the PC-Algorithm

这样我们就可以得到一个完全部分有向无环图。
马尔科夫等价类

很明显,完全部分有向无环图(CPDAG)跟有向无环图看上去就不一样。首先来看什么是部分有向无环图(Partially Directed Acyclic Graph,PDAG):假设  是一个图,若边集  中包含有向边和无向边,且不存在有向环,则称  是一个部分有向无环图。

完全部分有向无环图指:假设  是一个部分有向无环图,若  中的有向边都是不可逆的,并且  中的无向边都是可逆的,则称  是一个完全部分有向无环图。
关于可逆不可逆:对于有向无环图  中的任意有向边 ,如果存在图 与  等价,且 ,则称有向边 在  中是可逆的,否则是不可逆的。同理,对任意无向边 ,若存在 、  均与  等价,且 ,则称无向边 在  中是可逆的,否则是不可逆的。
换句话说用 PC 算法得到的图是含有无向边的。这是因为依据 d 分隔确定的条件独立性所构造的网络结构不具有唯一性,它们只是真实的贝叶斯网络的马尔科夫等价类(Markov Equivalence Class):

有向无环图  和  有相同的顶点集合和骨架,  为顶点集合, 和   为边的集合。对于任意的不相交的顶点集合 ,如果满足 在  和  中都被 所 d 分隔(也叫有相同的  结构),则称图  和  是马尔科夫等价的。
举个栗子:



马尔科夫等价类

上图  和  是马尔科夫等价类,它们左上角的那条有向边方向并不相同,这时 PC 算法就无法判断这条边的方向了,只能输出无向边,即

所以,严格来说,PC 算法以及大多数基于依赖统计分析的贝叶斯网络结构学习算法,得到的都只是一个 CPDAG(依然有无向边),而不是真正意义上的贝叶斯网络(有向无环图)。
参考


  • ^An Algorithm for Fast Recovery of Sparse Causal Graphs. Peter Spirtes and Clark Glymour. Social Science Computer Review 1991.http://shelf2.library.cmu.edu/Tech/28463803.pdf
  • ^Estimating High-Dimensional Directed Acyclic Graphs with the PC-Algorithm. Markus Kalisch and Peter Buhlmann. JMLR 2007.https://arxiv.org/pdf/1304.1505.pdf
  • ^d-Separation: From Theorems to Algorithms. Dan Geiger, et al. UAI 1989.https://www.jmlr.org/papers/volume8/kalisch07a/kalisch07a.pdf
  • ^Frequency Distribution of the Values of the Correlation Coefficient in Samples from an Indefinitely Large Population. R. A. Fisher. Biometrika 1915.https://www.quantresearch.org/Fisher%20transform%20seminal%20paper.pdf
  • ^Elements of Graphical Models. Steffen L. Lauritzen. 2011.http://www.stats.ox.ac.uk/~steffen/teaching/gm10/stflournotes.pdf
  • ^Wikipedia: Fisher transformationhttps://en.wikipedia.org/wiki/Fisher_transformation

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-11-19 19:48 | 显示全部楼层
我想问一下,我们通常说的PC算法,是91年提出的那个还是07年的那个[捂脸]
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-9-23 03:28 , Processed in 0.071620 second(s), 23 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表