图神经网络消息传递公式中的可学习变量和输入变量
时间: 2024-05-29 08:02:02 浏览: 50
神经网络的算法学习
在图神经网络的消息传递过程中,通常会引入可学习的权重矩阵(或者叫做参数)和输入特征向量。
以Graph Convolutional Network (GCN)为例,其消息传递公式为:
$$h_i^{(l)}=\sigma\Big(\sum_{j\in N_i} \frac{1}{c_{ij}}W^{(l)}h_j^{(l-1)} + b^{(l)}\Big)$$
其中 $h_i^{(l)}$ 表示第 $i$ 个节点在第 $l$ 层的特征向量,$N_i$ 表示第 $i$ 个节点的邻居节点集合,$W^{(l)}$ 是第 $l$ 层的权重矩阵,$b^{(l)}$ 是第 $l$ 层的偏置向量,$\sigma$ 是激活函数,$c_{ij}$ 是归一化因子,其定义为:$c_{ij} = \sqrt{d_i d_j}$,其中 $d_i$ 和 $d_j$ 分别表示节点 $i$ 和节点 $j$ 的度数。
在这个公式中,权重矩阵 $W^{(l)}$ 和偏置向量 $b^{(l)}$ 是可学习的变量,而输入特征向量 $h_j^{(l-1)}$ 则是输入变量。
阅读全文