流体扩散转换器的拓扑概括化 (Liútǐ kuòsàn zhuǎnhuànqì de tuòpū gàigé huà)

流体扩散转换器的拓扑概述 (Liútǐ kuòsàn zhuǎnhuànqì de tuòpū gàishù)

图神经网络中的拓扑泛化

图神经网络(GNNs)研究中的一个核心问题是它们在图的拓扑变化下的泛化能力。在本文中,我们从图扩散方程的角度研究了这个问题,这些方程与GNNs密切相关,并在过去被用作分析GNN动态、表达能力和验证架构选择的框架。我们描述了一种基于平流扩散的新架构,它结合了消息传递神经网络(MPNNs)和Transformer的计算结构,并展示了优越的拓扑泛化能力。

Image: Unsplash

本文是与Qitian WuChenxiao Yang合著的,基于Q. Wu等人的论文Advective Diffusion Transformer for Topological Generalization in Graph Learning(2023)arXiv:2310.06417。

图神经网络(GNNs)在过去十年中作为一种流行的图结构数据机器学习架构逐渐崭露头角,在社交网络、生命科学、药物和食品设计等各种应用领域得到广泛应用。

关于GNNs的两个关键理论问题是它们的表达能力和泛化能力。前一个问题在现有文献中得到了广泛讨论,通过采用各种图同构测试的变体[1]以及最近通过将GNNs表述为离散扩散类型方程[2]来解决。然而,尽管有多种最近的方法[3-4],但第二个问题仍然大部分是开放的。

实证上,当训练和测试数据来自不同分布(所谓的“分布偏移”),尤其是当图的拓扑发生变化时(“拓扑偏移”),据报道GNNs的性能往往较差[5-7]。这是一个…