使用graph来表示对象之间的复杂关系和依赖关系,然而graph数据的复杂已有的机器学习算法很难处理,所以使用深度学习方法来处理。A Comprehensive Survey on Graph Neural Networks论文回顾图神经网络(GNN)在文本挖掘和机器学习领域的发展,将GNN划分为递归图神经网络、卷积图神经网络、图自编码和时空图神经网络四类。此外还讨论图神经网络跨各种领域的应用、总结开源代码、数据集和图神经网络评价指标。最后给出可能的研究方向。

作者提到基于欧氏距离计算的数据能捕获隐含模式,然而随着应用数量的增加,开始使用graph表示数据,例如,它可以利用用户和商品之间的交互来提高推荐准确率;将化学分子建成graph,生物活性在药物发现中得到鉴定;在引言网络中,通过引用关系建立文章之间的联系,将他们分成不同的类别。然而graph与图像不同,节点无序、尺寸不一、邻居节点数量变化,这增加了graph的计算难度。此外ML算法是基于样本独立性假设的,与graph的构建机理矛盾。

?发展历史

1、递归图神经网络(RecGNNs) 1997年起,以迭代的方式并通过传递邻居节点信息来学习目标节点表示,直到稳定点。此类方法计算复杂度高,一些研究者研究如何降低复杂度。如,“Gated graphsequence neural networks,ICLR2015”,“Learning steadystates of iterative algorithms over graphs,ICML2018”.

2、卷积图神经网络(ConvGNNs)分为基于谱方法(最早2013)和基于空间方法(最早2009)

3、图自编码(GAEs)

4、时空图神经网络(STGNNs)

?图嵌入 vs. 网络嵌入

主要区别:GNN是一组神经网络模型来处理不同任务,网络嵌入涵盖了针对同一任务的各种方法。通过图自编码器框架GNNs能够处理网络嵌入问题。
graph embedding :以端到端的方式处理图关系任务,抽取高阶表示

network embedding: 低维向量表示网络节点,同时保持网络拓扑结构和节点内容信息。因此,任何后续的图形分析任务,如分类、聚类和推荐,都可以使用简单的现成的机器学习算法轻松地执行。网络嵌入还包含非深度学习方法,如矩阵分解和随机游走。

?图神经网络 vs. 图内核方法

图内核:是解决图分类问题主要技术。使用核函数度量图对之间的相似度,如svm。通过映射函数将图和节点映射到向量空间。采用两两对相似度计算,计算复杂度高

图神经网路:直接根据抽取的图表征执行图分类,比图核方法更有效。通过映射函数将图和节点映射到向量空间。