当前位置:首页 > 智能硬件 > 人工智能AI
[导读] 近年来,图神经网络的研究成为深度学习领域的热点,机器之心曾介绍过清华大学朱文武等人综述的图网络。近日,清华大学孙茂松组在arXiv上发布预印版综述文章Graph Neural Networks

近年来,图神经网络的研究成为深度学习领域的热点,机器之心曾介绍过清华大学朱文武等人综述的图网络。近日,清华大学孙茂松组在arXiv上发布预印版综述文章Graph Neural Networks : AReview of Methods and Applications。

该文总结了近年来图神经网络领域的经典模型与典型应用,并提出了四个开放性问题。对于希望快速了解这一领域的读者,不妨先从这篇文章看起。

除了这篇综述外,文章作者在Github中更新了该领域的参考文章列表(https://github.com/thunlp/GNNPapers),供各位读者参考查看。

图是一种数据结构,它对一组对象(节点)及其关系(边)进行建模。近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。图神经网络(GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN最近已成为一种广泛应用的图分析方法。

GNN的第一个动机源于卷积神经网络(CNN)。CNN的广泛应用带来了机器学习领域的突破并开启了深度学习的新时代。然而CNN只能在规则的Euclidean数据上运行,如图像(2维网格)和文本(1维序列)。如何将CNN应用于图结构这一非欧几里德空间,成为GNN模型重点解决的问题。

▲图1.左:图像(欧几里得空间)右:图(非欧几里德空间)

GNN的另一个动机来自图嵌入(Graph Embedding),它学习图中节点、边或子图的低维向量空间表示。DeepWalk、LINE、SDNE等方法在网络表示学习领域取得了很大的成功。然而,这些方法在计算上较为复杂并且在大规模上的图上并不是最优的,GNN旨在解决这些问题。

这篇文章对图神经网络进行了广泛的总结,并做出了以下贡献:

文章详细介绍了图神经网络的经典模型。主要包括其原始模型,不同的变体和几个通用框架。

文章将图神经网络的应用系统地归类为结构化场景、非结构化场景和其他场景中,并介绍了不同场景中的主要应用。

本文为未来的研究提出四个未解决的问题。文章对每个问题进行了详细分析,并提出未来的研究方向。

在模型这一部分中,文章首先介绍了最经典的图神经网络模型GNN,具体阐述了GNN的模型与计算方式,然而GNN模型仍然存在一定的限制,比如较高的计算复杂度以及表示能力不足等等。

后续的很多工作致力于解决GNN存在的种种问题,在2.2一节中文章详细介绍了GNN的不同变体。具体来说,文章分别介绍了适应于不同图类型、采用不同的信息传递方式以及采用了不同的训练方法的变体。

▲图2.不同的GNN变体

在2.2.1节中,文章介绍了处理不同图类型的GNN变体,包括有向图、异质图和具有边信息的图。在2.2.2节中,文章对于采用不同信息传递方式的变体进行了总结与概括。主要分为以下四个类别:

卷积。Graph ConvoluTIonal Network(GCN)希望将卷积操作应用在图结构数据上,主要分为Spectral Method 和SpaTIal Method(Non-spectral Method)两类。SpectralMethod希望使用谱分解的方法,应用图的拉普拉斯矩阵分解进行节点的信息收集。SpaTIal Method直接使用图的拓扑结构,根据图的邻居信息进行信息收集。

注意力机制。Graph AttenTIon Network致力于将注意力机制应用在图中的信息收集阶段。

门机制。这些变体将门机制应用于节点更新阶段。Gated graph neural network将GRU机制应用于节点更新。很多工作致力于将LSTM应用于不同类型的图上,根据具体情境的不同,可以分为TreeLSTM、GraphLSTM和SentenceLSTM等。

残差连接。注意到堆叠多层图神经网络可能引起信息平滑的问题,很多工作将残差机制应用于图神经网络中,文中介绍了Highway GNN和Jump Knowledge Network两种不同的处理方式。

文章还对于不同的信息传递方式进行了公式化总结。简单来说,信息传递函数主要包括信息收集(agggregation)和节点信息更新(update)两个部分,在表格中列出了每种方法的不同配置。

▲表1.采用不同消息传递函数的GNN变体总结

在2.2.3节中,文章介绍了GNN的不同训练方法。譬如Graph SAGE从附近的邻居收集信息,并且能够应用于inductive learning领域;Fast GCN使用了importance sampling的方法,使用采样替代使用节点所有的邻居信息,加快了训练过程。

在2.3节中,文章介绍了近年来文献中提出的图神经网络通用框架MPNN(Message Passing NeuralNetwork)、NLNN(Non-local Neural Network)以及Deepmind的GN(Graph Network)。

MPNN将模型总结为信息传递阶段和节点更新阶段,概括了多种图神经网络和图卷积神经网络方法。NLNN总结了很多种基于自注意力机制的方法。GN提出了更加通用的模型,能够总结概括几乎所有文中提到的框架,并且拥有更加灵活的表示能力、易于配置的块内结构以及易于组合的多模块架构。

▲图3.GN Block组合成复杂网络结构

GNN被应用在众多的领域,文章具体将应用分为了结构化场景、非结构化场景以及其他三个类别。

在结构化场景中,GNN被广泛应用在社交网络、推荐系统、物理系统、化学分子预测、知识图谱等领域。文章中主要介绍了其在物理、化学、生物和知识图谱中的部分应用。在非结构领域,文章主要介绍了在图像和文本中的应用。在其他领域,文章介绍了图生成模型以及使用GNN来解决组合优化问题的场景。

▲图4.GNN的应用示例

▲表2.文章介绍的应用总结

文章最后提出了图神经网络领域的四个开放问题:

1.浅层结构。经验上使用更多参数的神经网络能够得到更好的实验效果,然而堆叠多层的GNN却会产生over-smoothing的问题。具体来说,堆叠层数越多,节点考虑的邻居个数也会越多,导致最终所有节点的表示会趋向于一致。

2.动态图。目前大部分方法关注于在静态图上的处理,对于如何处理节点信息和边信息随着时间步动态变化的图仍是一个开放问题。

3.非结构化场景。虽然很多工作应用于非结构化的场景(比如文本),然而并没有通用的方法用于处理非结构化的数据。

4.扩展性。虽然已经有一些方法尝试解决这个问题,将图神经网络的方法应用于大规模数据上仍然是一个开放性问题。

本文来源:机器之心编译 作者:  PaperWeekly

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭