zl程序教程

您现在的位置是:首页 >  大数据

当前栏目

图神经网络 | BrainGNN: 用于功能磁共振成像分析的可解释性脑图神经网络

神经网络 分析 功能 用于 成像 解释性 磁共振 脑图
2023-06-13 09:11:31 时间

图神经网络简介

GNN是Graph Neural Network的简称,是用于学习包含大量连接的图的联结主义模型。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统甚至生命科学等各个领域得到了越来越广泛的应用。GNN在对图节点之间依赖关系进行建模的强大功能,使得与图分析相关的研究领域取得了突破。当信息在图的节点之间传播时GNN会捕捉到图的独立性。

图神经网络可以简单分为5类:图卷积网络(Graph Convolution Networks,GCN)、 图注意力网络(Graph Attention Networks)、图自编码器( Graph Autoencoders)、图生成网络( Graph Generative Networks) 和图时空网络(Graph Spatial-temporal Networks)。

符号定义

GNN在对图节点之间依赖关系进行建模的强大功能和集成多组数据集模型方面的能力,使得它在脑科学领域中受到越来越多的关注。

图神经网络在脑科学

研究人员在文章中提出了一种图形神经网络(GNN)框架——BrainGNN,用于分析功能性磁共振图像(fMRI)并发现神经生物学标志物,以此来了解大脑。通过将感兴趣的大脑区域(ROI)定义为顶点,将ROI之间的功能连接性定义为边,将fMRI时间序列定义为成对相关性,文章把大脑建模为图作为输入,然后输出预测结果和解释结果。通过使用不同的内核并使用新的损失项调节中间输出来促进模型的可解释性,提供了在个人级别和组级别的解释。

框架流程图

在上面的框架流程图中,fMRI图像由图谱分解并转移到图中。然后,将图发送到BrainGNN,由BrainGNN给出特定任务的预测。BrainGNN共同选择对预测任务有用的重要大脑区域,并将大脑区域聚集到与预测相关的功能区中。

BrainGNN架构

下图(a)展示了BrainGNN架构。BrainGNN由Ra-GNN和R-pool块组成。它以图为输入,并输出图级预测。

考虑到脑图的特殊性质,研究人员设计了新的脑ROI感知图卷积层(Ra-GNN),它利用了fMRI的拓扑和功能信息。出于对医学图像分析透明度的需求,因此我们的BrainGNN包含突出显著ROI(图中的节点)选择池层(R-pool),可以推断出哪些ROI对预测很重要。

上图中(b)显示了Ra-GNN层如何嵌入节点要素。首先,根据节点对社区成员的评分,将节点分配给社区。每个社区都与一个不同的基础向量相关联。每个节点由特定的基向量根据其所属的社区嵌入。然后,通过聚合节点自己的嵌入及其邻居的嵌入,将更新的表示分配给图上的每个节点。(c)显示R-pool如何选择要保留的节点。首先,将所有节点的表示投影到可学习的向量上。具有较大投影值的节点将保留其相应的连接。

实验分析

下面是对显著ROI的不同解释级别

如下图(a)所示,当λ3 = 0时,很少发现三个实例之间的重叠区域。在图6(b-c)中,研究人员在三个实例中圈出了大的重叠区域。通过目测显著ROI,研究者在图6(b)中发现三个重叠区域,在图6(c)中发现五个重叠区域。因此通过调整λ3, BrainGNN可以实现不同层次的解释。

3个不同权重的ASD个体21个选择的显著roi λ3与组水平一致性项LGLC相关。颜色条的范围从0.1到1。明黄色表示高分,暗红色表示低分。在不同个体中检测到的共同显著roi用蓝色圈出。

Ra-GNN层中的节点聚类模式

研究人员根据Ra-GNN第一层的核参数嵌入图像(在Eq.(3)中学习)对所有ROI进行聚类,分别在下图a和图b中显示了Biopoint和HCP数据的节点聚类结果。

从Ra-GNN层的θ1参数学习ROI聚类,

不同的颜色代表不同的社区

研究人员同时使用t-SNE来可视化下图a中每个社区ASD的原始节点特征,以及下图b中第一个Ra-GNN层所嵌入的潜在空间。不同社区中的节点表示是可区分的,并且同一个社区内节点表示的差异被放大,这证实了我们在2.2节中提出的不同核增强了不同社区中节点表示的多样性的假设。在HCP数据集中也观察到类似的模式。

在该项研究中,研究人员提出了一种用于fMRI分析的可解释图神经网络BrainGNN。BrainGNN将神经图像构建的图形作为输入,然后输出预测结果和解释结果。研究者将BrainGNN应用于生物点和HCP fMRI数据集发现由于其内置的可解释性,BrainGNN不仅在预测方面比其他方法表现得更好,而且还能检测出与预测相关的显著大脑区域,并发现大脑社区模式。研究人员表示,所提出的框架可以推广到其他神经成像模式的分析。这些优势对于发展精准医疗、理解神经疾病等研究至关重要。

参考

Li X , Duncan J . BrainGNN: Interpretable Brain Graph Neural Network for fMRI Analysis. 2020.