![]() |
奔跑的斑马 · 三明市人民政府关于印发三明市化工园区规范提升 ...· 1 月前 · |
![]() |
茫然的胡萝卜 · 西锐SR22_百度百科· 6 月前 · |
![]() |
不拘小节的单车 · 野球帝到底几个人啊? - 知乎· 1 年前 · |
![]() |
礼貌的机器人 · 关于湖南省第七届中小学生艺术展演活动获奖情况 ...· 1 年前 · |
![]() |
爱玩的黑框眼镜 · 13.99万起!蓝电E5正式上市,全新插混中 ...· 2 年前 · |
许多科学问题都要求以几何图形(geometric graphs)的形式处理数据。与一般图数据不同,几何图显示平移、旋转和反射的对称性。研究人员利用这种
对称性的归纳偏差
(inductive bias),开发了几何等变图神经网络(GNN),以更好地描述几何图的几何特性和拓扑。尽管取得了丰硕的成果,但它仍然缺乏一项survey来描述等变GNN是如何发展的,这反过来又阻碍了等变GNNs的进一步发展。为此,基于必要但简明的数学预备知识,我们下面分析并将现有方法分为三组,以了解如何表示GNN中的消息传递和聚合。另外还举例了相关应用,以便于以后的方法开发和实验评估研究。
归纳偏差or归纳偏置(inductive bias),归纳是自然科学研究中的一种方法,指的是从一些例子中寻找共性,形成一个通用的规则,bias是指我们对模型的偏好。因此归纳偏置可以理解为:
关于等变与不变:
许多问题,尤其是物理和化学问题,需要以几何图的形式处理数据。 与一般图数据不同,几何图不仅为每个节点分配一个特征,还分配一个几何矢量 。例如,分子或蛋白质可以被视为几何图,其中原子的3D位置坐标是几何矢量;或者在一般的多体物理系统中,3D状态(位置、速度或自旋)是粒子的几何矢量。值得注意的是,几何图显示了平移、旋转和反射的对称性。这是因为无论我们如何将分子(或一般物理系统)从一个地方平移或旋转到另一个地方,控制原子(或粒子)动力学的物理定律是相同的。在处理这类数据时,必须将对称性的归纳偏差纳入模型的设计中,这推动了几何等变图神经网络(GNN)的研究。
GNN最初由Sperduti和Starita于1997提出,在深度学习的发展下,GNN在图结构建模方面表现出了突出的优势。虽然已经开发了丰富的结构,但大多数以前的GNN在几何上并不是等变的,因此不适合用于几何图。为了实现几何等变,人们提出了大量工作来改进GNN中的消息传递和聚合机制。
然而,鉴于取得了丰硕的成就,仍然没有一份survey来描述等变GNN是如何发展的。这不仅阻碍了外部研究人员迅速进入这一领域,还可能阻碍从现有论文中提取经验教训和新想法,供那些想进一步推动这一领域的研究人员使用。
在本节中,将介绍两个关键因素,即图神经网络(GNN)和等变,作为讨论几何等变GNN的基础。
GNNs已经被广泛用于处理关系数据。考虑 x i ∈ R 3 (比如位置或速度坐标)。当通过GNN处理此类数据时,我们可以将等变的归纳偏差注入到图模型中。
对于几何图,应用场景决定是否需要等变性,例如:
为了更好地区分,在下文中,用粗体表示几何矢量,用普通符号表示非几何量。
Eq.1-2被改为: \textbf{m}_{ij}=\psi_{\textbf{m}}(\textbf{x}_{i},\textbf{x}_{j},h_{i},h_{j},e_{ij})\tag{5} m ij = ψ m ( x i , x j , h i , h j , e ij ) ( 5 ) \textbf{x}'_{i}=\psi_{\textbf{x}}(\left\{\textbf{m}_{ij}\right\}_{j\in N(i)},\textbf{x}_{i})\tag{7} x i ′ = ψ x ( { m ij } j ∈ N ( i ) , x i ) ( 7 ) 其中, x i 是G-equivariant的;
图1中详细说明了上述等变消息传递机制。
目前已经提出了多种等变GNNs,它们通常是不同Group上的 Eq.4-7 的不同具体对象。根据消息的表示方式,将当前的方法分为三类:不可约表示(irreducible representation),正则表示(regular representation),标量化(scalarization)。
在大多数情况下,由于相对位置 x i − x j 是平移不变量(translation invariant),因此,下面讨论主要涉及旋转和除了平移的其他变换。
这类模型基于表示论中关于紧群的线性表示可以拆解为一系列不可约表示这一理论。从而在 \textbf{m}_{ij}^{l}=\sum_{k\geq 0 }\textbf{W}^{lk}(\textbf{x}_{i}-\textbf{x}_{j})\textbf{x}_{j}^{k} m ij l = k ≥ 0 ∑ W l k ( x i − x j ) x j k \textbf{W}^{lk}(\textbf{D}^{1}(r)\textbf{x})=\textbf{D}^{l}(r)\textbf{W}^{lk}(\textbf{x})(\textbf{D}^{k}(r))^{-1} W l k ( D 1 ( r ) x ) = D l ( r ) W l k ( x ) ( D k ( r ) ) − 1
另一类的工作尝试利用 群的正则表示 来构建群卷积操作。比如Lie卷积: \textbf{x}_{i}'=\textbf{x}_{i}+\sum_{j\neq i}(\textbf{x}_{i}-\textbf{x}_{j})\varphi_{x}(m_{ij}) x i ′ = x i + j = i ∑ ( x i − x j ) φ x ( m ij ) ( x i − x j ) φ x ( m ij ) ,可以同时保证非几何特征和几何特征传播过程中的等变性。这个构造结合了物理知识,可以看成是对两个粒子的库伦力 / 重力的计算的建模。
等变GNN在从物理系统到化学物质的各种类型的real-world几何数据上有着广泛的应用。
对复杂物理系统的动力学建模一直是一个具有挑战性的课题,神经网络已经被用于推断相互作用和动力学。在物理系统中,像带电粒子这样的物体通过遵循物理定律的力相互作用。通常任务是在初始条件下预测粒子的动力学,包括位置、速度和电荷。这样的任务是E(3)-等变的,因为粒子的动力学与整个系统一起平移、旋转和反射。
h i 通常是原子的特征,节点之间的连接性要么由化学键提供,要么基于距离阈值获取。下面回顾分子的等变GNN,包括预测和生成。
预测
2022 年 7月18日腾讯 AI Lab发表了题为 “3D Equivariant Molecular Graph pretraining” 的文章,开发了基于能量表示的等变分子图神经网络预训练模型,在下游能量和力预测上均达到了最优的效果。
使用3D backbone模型,设计3D感知预训练任务,并针对下游任务进行评估,存在如下挑战:
生成
Axelrod和Gomez Bombarelli引入了大规模未标记数据,将其分为两个子集GEOM-QM9和GEOM Drugs。这些数据集包含大量小分子构象的不同样本,并作为分子构象生成任务中的无监督训练集。ConfGF和DGSM使用旋转平移等变GNN参数化基于分数的生成模型中的分数函数,从而生成学习构象条件分布的生成模型。GeoDiff进一步将生成模型推广到去噪扩散模型。
蛋白质与小分子docking
预测药物样分子如何与特定蛋白质靶标结合是药物发现的核心问题。一种极快的计算binding方法将实现快速虚拟筛选或成为药物工程等关键应用。现有方法的计算成本很高,因为它们依赖于大量候选采样以及评分、排名和微调步骤。
“EquiBind:Geometric Deep Learning for Drug Binding Structure Prediction” 挑战了这一范式,这是一种 SE(3)-等变 几何深度学习模型,对:
与传统和最近的基线相比,EquiBind 实现了1200倍的加速。