【ICML】四篇好文简读-专题3
一.
论文题目:
On Explainability of Graph Neural Networks via Subgraph Explorations 论文摘要:
这是一篇关于GNN可解释行的文章。作者提出了SubgraphX框架,该框架可以识别重要的子图以对GNN的预测结果进行解释。SubgraphX是第一个通过直接识别子图对GNN解释的工作。给定训练好的GNN模型和输入图,SubgraphX利用蒙特卡洛树搜索高效地探索不同的子图给出预测结果的解释。为了提高树搜索的效率,作者提出使用Shapley值度量子图的重要性和不同子图之间的交互。此外作者还提出了有效的近似算法减少计算量,提升计算效率。实验结果表明,SubgraphX可以获得更好的解释性的同时并保持计算量在可接受的范围内。
论文链接:
https://arxiv.org/abs/2102.05152 代码链接:
https://github.com/divelab/DIG
二.
论文题目:
DeepWalking Backwards: From Embeddings Back to Graphs 论文摘要:
低维节点嵌入在分析图数据集中起着关键作用。然而,很少有工作研究流行的嵌入方法到底编码了哪些信息,以及这些信息如何与下游机器学习任务中的性能相关。作者通过研究嵌入是否可以反转(近似地)恢复用于生成它们的图来解决这个问题。针对流行的DeepWalk方法的一种变体,作者提出了精确嵌入反演的算法——即,从图G的低维嵌入中,可以找到嵌入非常相似的图H。作者在现实世界的网络上进行了大量实验,观察到关于G的重要信息,如特定的边和三角形密度等体积属性,在H中经常丢失。然而,社区结构经常被保留甚至增强。该发现能使人们更准确地理解输入图中到底什么信息被编码以及为什么这些信息对学习任务有用。
论文链接:
https://arxiv.org/abs/2102.08532
三.
论文题目:
E(n) Equivariant Graph Neural Networks
论文摘要:
本文介绍了一种学习等变旋转、平移、反射和排列的图神经网络的新模型E(n)-等变图神经网络(EGNNs)。与现有的方法相比,这项工作不需要在中间层中计算昂贵的高阶表示,同时它仍然能够获得有竞争力的或更好的性能。此外,现有的方法仅限于三维空间上的不变性,而作者的模型很容易缩放到高维空间。作者证明了我们的方法在动力系统建模、图形自动编码器的表示学习和预测分子性质方面的有效性。
四.
论文题目:
Self Normalizing Flows
论文摘要:
高效的雅可比行列式梯度计算是许多机器学习环境中的核心问题,在归一化流框架中尤其如此。因此,大多数提出的流模型要么限制于一个函数类,易于求出雅可比行列式,要么限制于一个有效的雅可比行列式估计。然而,这些限制限制了这种密度模型的性能,通常需要显著的深度才能达到预期的性能水平。在这项工作中,作者提出了自归一化流,一个灵活的框架训练归一化流通过替换昂贵的项在梯度上学习近似逆在每一层。这减少了从O(D^3)到O(D^2)的每一层的实际更新的计算复杂度,允许训练在其他计算上不可行的流架构,同时也提供了有效的采样。作者的实验表明,这些模型非常稳定,并优化到类似的数据似然值作为其精确梯度对应,而更快地训练和超过性能功能约束对应。
转载或合作请联系邮箱 intbioinfo@163.com
相关文章
- EasyCVR对接华为iVS订阅摄像机和用户变更请求接口介绍
- 精选 | 腾讯云CDN内容加速场景有哪些?
- 模块化网络防止基于模型的多任务强化学习中的灾难性干扰
- 用搜索和注意力学习稳健的调度方法
- 用于多变量时间序列异常检测的学习图神经网络
- 助力政企自动化自然生长,华为WeAutomate RPA是怎么做到的?
- 使用腾讯轻量云搭建Fiora聊天室
- TSRC安全测试规范
- 云计算“功守道”
- 助力成本优化,腾讯全场景在离线混部系统Caelus正式开源
- Flink 利器:开源平台 StreamX 简介
- 腾讯云实践 | 一图揭秘腾讯碳中和?解决方案
- 深度学习中的轻量级网络架构总结与代码实现
- 信息系统项目管理师(高项复习笔记三)
- Adobe国际认证让科技赋能时尚
- c++该怎么学习(面试吃土记)
- 面试官问发布订阅模式是在问什么?
- 面试官:请实现一个通用函数把 callback 转成 promise
- 空中悬停、翻滚转身、成功着陆,我用强化学习「回收」了SpaceX的火箭
- 中山大学林倞解读视觉语义理解新趋势:从表达学习到知识及因果融合