zl程序教程

您现在的位置是:首页 >  IT要闻

当前栏目

【ICML】四篇好文简读-专题3

2023-04-18 15:00:36 时间

一.

论文题目:

On Explainability of Graph Neural Networks via Subgraph Explorations 论文摘要:

这是一篇关于GNN可解释行的文章。作者提出了SubgraphX框架,该框架可以识别重要的子图以对GNN的预测结果进行解释。SubgraphX是第一个通过直接识别子图对GNN解释的工作。给定训练好的GNN模型和输入图,SubgraphX利用蒙特卡洛树搜索高效地探索不同的子图给出预测结果的解释。为了提高树搜索的效率,作者提出使用Shapley值度量子图的重要性和不同子图之间的交互。此外作者还提出了有效的近似算法减少计算量,提升计算效率。实验结果表明,SubgraphX可以获得更好的解释性的同时并保持计算量在可接受的范围内。

论文链接:

https://arxiv.org/abs/2102.05152 代码链接:

https://github.com/divelab/DIG

二.

论文题目:

DeepWalking Backwards: From Embeddings Back to Graphs 论文摘要:

低维节点嵌入在分析图数据集中起着关键作用。然而,很少有工作研究流行的嵌入方法到底编码了哪些信息,以及这些信息如何与下游机器学习任务中的性能相关。作者通过研究嵌入是否可以反转(近似地)恢复用于生成它们的图来解决这个问题。针对流行的DeepWalk方法的一种变体,作者提出了精确嵌入反演的算法——即,从图G的低维嵌入中,可以找到嵌入非常相似的图H。作者在现实世界的网络上进行了大量实验,观察到关于G的重要信息,如特定的边和三角形密度等体积属性,在H中经常丢失。然而,社区结构经常被保留甚至增强。该发现能使人们更准确地理解输入图中到底什么信息被编码以及为什么这些信息对学习任务有用。

论文链接:

https://arxiv.org/abs/2102.08532

三.

论文题目:

E(n) Equivariant Graph Neural Networks

论文摘要:

本文介绍了一种学习等变旋转、平移、反射和排列的图神经网络的新模型E(n)-等变图神经网络(EGNNs)。与现有的方法相比,这项工作不需要在中间层中计算昂贵的高阶表示,同时它仍然能够获得有竞争力的或更好的性能。此外,现有的方法仅限于三维空间上的不变性,而作者的模型很容易缩放到高维空间。作者证明了我们的方法在动力系统建模、图形自动编码器的表示学习和预测分子性质方面的有效性。

四.

论文题目:

Self Normalizing Flows

论文摘要:

高效的雅可比行列式梯度计算是许多机器学习环境中的核心问题,在归一化流框架中尤其如此。因此,大多数提出的流模型要么限制于一个函数类,易于求出雅可比行列式,要么限制于一个有效的雅可比行列式估计。然而,这些限制限制了这种密度模型的性能,通常需要显著的深度才能达到预期的性能水平。在这项工作中,作者提出了自归一化流,一个灵活的框架训练归一化流通过替换昂贵的项在梯度上学习近似逆在每一层。这减少了从O(D^3)到O(D^2)的每一层的实际更新的计算复杂度,允许训练在其他计算上不可行的流架构,同时也提供了有效的采样。作者的实验表明,这些模型非常稳定,并优化到类似的数据似然值作为其精确梯度对应,而更快地训练和超过性能功能约束对应。

转载或合作请联系邮箱 intbioinfo@163.com