没有合适的资源?快使用搜索试试~ 我知道了~
1311面向AUC的图神经网络欺诈检测黄孟达中国科学院计算技术研究所中国北京huangmengda19s@ict.ac.cn李宽中国科学院计算技术研究所likuan20s@ict.ac.cn刘扬中国科学院计算技术研究所中国北京liuyang17z@ict.ac.cn阿里巴巴集团中国杭州bianfu. alibaba-inc.comXiangAo中国科学院计算技术研究所xiang@ict.ac.cnJinghua Feng阿里巴巴集团中国jinghua. alibaba-inc.com摘要Hao Yang阿里巴巴集团中国杭州youhiroshi. alibaba-inc.comQingHe中国科学院计算技术研究所他qing@ict.ac.cnCCS概念虽然图神经网络(GNN)在欺诈检测任务中取得了成功,但与整体用户群相比,由于欺诈有限,它们遭受不平衡的标签。本文试图通过最大化AUC(ROC曲线下面积)度量来解决GNN的标签不平衡问题,因为它对标签分布是无偏的。然而,最大化用于欺诈检测任务的GNN上的AUC是棘手的,这是由于由欺诈者生成的故意噪声边缘引起的潜在污染的拓扑结构。为了缓解这个问题,我们建议将GNN上的AUC最大化过程分别解耦为分类器参数搜索和边缘修剪策略搜索我们提出了一个名为AO-GNN(缩写为UC-oriented GNN)的模型,在上述框架下实现GNN上的AUC最大化。在该模型中,采用面向AUC的随机梯度搜索分类器参数,设计了一个基于AUC代理奖励的强化学习模块进行边缘剪枝策略搜索.在三个真实世界数据集上的实验表明,所提出的AO-GNN不仅在AUC方面而且在其他一般指标(例如F1-macro,G-means)方面都明显优于最先进的基线作 者是一个很好的人。†中国科学院智能信息处理重点实验室也在中国科学院大学。向傲也在中国苏州智能计算技术研究所工作。允许免费制作本作品的全部或部分的数字或硬拷贝,以供个人或课堂使用,前提是制作或分发副本的目的不是为了盈利或商业利益,并且副本的第一页上版权的组成部分,这项工作所拥有的其他人比ACM必须尊重。允许使用学分进行摘要 以其他方式复制、重新发布、在服务器上发布或重新分发到列表,需要事先获得特定许可和/或付费。请求权限请发邮件至permissions@acm.org。WWW©2022计算机协会。ACM ISBN 978-1-4503-9096-5/22/04。. . 十五块https://doi.org/10.1145/3485447.3512178• 计算方法学神经网络关键词图神经网络,AUC最大化,欺诈检测ACM参考格式:黄梦达,刘扬,敖翔,李宽,池剑锋,冯京华,杨昊,和清河。2022.面向AUC的图神经网络用于欺诈检测。 在ACM Web Conference2022(WWW '22)的会议记录中,2022年4月25日至29日,虚拟活动,法国里昂。ACM,美国纽约州纽约市,11页。https://doi.org/10.1145/3485447.35121781介绍得益于挖掘实体之间的深刻依赖性和相关性的能力,图神经网络(GNN)[12,33]已被广泛应用于欺诈检测任务[7,16,21,48,50,52]。特别是,由于其消息传递方案,它递归地聚合和转换每个节点的邻居的表示,GNN能够发现图上的微妙和隐藏的信号,并对一些模糊的情况进行分类。尽管在欺诈检测任务上取得了显着的成功,但用于欺诈检测的基于GNN的模型仍然遭受不平衡的标签分布问题,即,欺诈者远不如良性用户[20]。标签不平衡问题在大多数与欺诈有关的情况下都很常见。例如,在现实世界的数据集中,亚马逊[25],只有9.5%的帐户发布垃圾评论。另一个例子,[50]中的数据集仅包含0.5%未能按时偿还债务的金融违约者在这种不利条件下,由于偏斜的数据分布,模型很容易在一个类中过拟合[13]。因此,一些研究试图从修饰训练过程的角度来减轻标签分布不平衡的影响。举几个例子,重新采样方法通过对少数群体进行过采样[41,44]或欠采样来构建平衡的训练集1312GMGV联系我们YXG MG∈V E {E E}ω,ωVG(V E X Y)(())()MG(|)的方式→WWW大多数人[23,30]。重新加权方法以元学习[31,51]或成本敏感的方式[14,21]对每个训练案例进行加权。在本文中,与现有的作品,我们试图解决标签不平衡的问题,最大化的AUC(ROC曲线下面积)度量。由于AUC对标签分布是无偏的[24],因此面向AUC的训练往往会获得一个具有竞争能力的模型,用于分类大多数(良性用户)和少数(欺诈用户)样本。虽然有为欧几里得空间数据设计的先驱作品[9,28,42,43],但非欧几里得图结构数据的具体解决方案仍未开发[34]。然而,最大化GNN上的AUC用于欺诈检测任务是棘手的,这是由于欺诈者生成的故意噪声边缘造成的潜在污染拓扑回想一下,在GNN模型中,中心节点在消息传递期间从所有邻居节点收集特征向量因此,一些欺诈者可能故意形成噪声边缘,例如, 尽可能多地与良性用户联系,误导分类器返回错误的输出。例如,对于亚马逊中的每个欺诈节点[25],其邻居平均有80.47%是良性因此,通过新兴的图结构学习[4,47]适当地净化图结构和过滤邻居集有助于使AUC最大化适应基于GNN的欺诈检测。将图结构学习应用于AUC最大化也是一方面,监督信息的缺乏大大增加了训练在所有节点上具有泛化能力的邻居过滤器的难度。另一方面,在密集或大规模图中,学习自适应地为每个节点选择邻居具有高时间复杂度。为了解决上述挑战,我们提出了AO-GNN,一个面向AUC的GNN欺诈检测模型,它由一个节点分类器和一个边缘修剪器组成然后,我们可以将图上的AUC最大化分别解耦为分类器参数搜索(分类器训练)和边缘修剪策略搜索(修剪器训练)。前者缓解了标签不平衡的问题,而后者的策略搜索被设计用于图噪声去除。边修剪器为每个节点选择邻居集,并进一步推进消息传递过程,这在现有的AUC最大化方法中被省略。具体来说,我们制定的边缘修剪(又名选择邻居)的过程中,作为一个马尔可夫决策过程(MDP)的中心节点。通过政策梯度[36]进行,我们的政策能够提高AUC。将强化学习引入我们的框架是自然和合理的,因为强化学习不仅不需要与噪声相关的监督数据,而且如果我们将AUC变化设置为奖励,则可以保持一致的优化目标此外,我们设计了代理奖励、参数共享机制和暂停机制来减少时间消耗,从而加速了两个数量级的训练本文件的贡献可归纳如下:我们从AUC最大化的角度提出了一种新的基于GNN的欺诈检测模型深度强化学习 通过我们的加速机制,我们的边修剪策略搜索模块是有效的和高效的。在三个公共数据集上的实验表明,AO-GNN明显优于我们所知道的最先进的基线。2预赛2.1问题陈述2.1.1多关系不平衡图让=、、、是一个无向图具体地,向量集由n个节点vi=1,2,., r是来自r个不同关系的边集的集合;是节点特征矩阵,其中匹配行向量Xv是v的对应特征向量;是标签集,其中yv0、 1个 是v的标签。背景下欺诈检测,yv=1表示欺诈,否则v是良性的。非正式地,如果来自一个类的样本比另一个类的样本出现得更频繁,那么我们称G为多关系不平衡图。2.1.2AUC。设MG:V→R是多关系不平衡图G上的一个基于GNN的模型。 参数为ω ∈ Rd,MG(ω; v)通过处理和聚合来自v的邻居集N(v)的信息来返回v是欺诈的概率。 由于GNN中的消息传递机制,对N(v)的修整会影响MG的预测输出。因此,给定一个prun- ing策略:2V2V,返回修剪的邻居集Nv我们可以有一个新的预测ω;v <$。然后我们可以计算under pruning的AUC度量根据人口水平上AUC的定义AUC(Mω|ω)=P(MG(ω;v|ω)≥MG(ω;v′|)|yv=1,yv′=0)。(一)在等式(1)中,v、v′独立地从所有正/负标记样本中提取等式(1)将AUC解释为随机欺诈情况比随机良性情况更可能被分类为欺诈者的概率。对良性用户和欺诈者的成对关注有助于解释AUC的标签分布无偏差特性2.1.3问题表述。 给定一个多关系不平衡图而基于GNN的模型具有随机参数,AUC最大化问题是找到最优参数ωε对于MG和最优解,maxEv,v′(I(MG(ω;v|ω)≥MG(ω;v′|))|yv=1,yv′=0),(2)其中I是指示函数,v,v′独立地从I中得出。 注意,公式(2)仅将等式(1)的右侧从概率变换为期望,以便更容易地获得估计。2.2图神经网络GNN的核心组件是消息传递方案,该方案聚集并转换邻居的表示向量对于每个节点递归地。形式上,令H(l)为表示标签分布不平衡和噪声拓扑的问题cal结构据我们所知,这是第一个v在lv- GNN的第层,然后我们可以更新表示工作,以最大限度地提高AUC的图形数据。• 我们将邻居选择问题表示为MDP,在第(1+1)层中,H(1+1)=σ(W(1)AGGR(MSG(H(1);H(1),(3)最大化AUC的理论保证,并通过v vuu∈N(v)··面向AUC的图神经网络欺诈检测WWW1313vi(S A P R)S APPG.∈(]k=S→ A(|)的方式()( |)( |)G是一个(一)|)的方式(M)|)ω( |)的方式其中H(0)=Xi;σ是激活函数;W(1)是第1层中的可训练参数;AGGR表示聚合器函数,MSG表示消息传递函数[45]。在公式(3)的基础工作之后,已经提出了许多GNN架构,其中最具代表性的是GCN[12],GraphSAGE [10]和GAT[37]等。在本文中,我们选择了图-SAGE以关系感知的连接作为我们的基础架构,用于归纳学习和效率。更新过程可以写成3方法在本节中,我们首先介绍AO-GNN的框架,它将GNN上的AUC最大化扩展到分类器参数搜索和边缘修剪策略搜索中。然后,我们提供了更详细的描述这两个模块和我们的工作效率。3.1模型框架回想公式(2)中公式化的AUC最大化问题。实际上,ω可以确定唯一的节点分类器GNN(下文中H(1+1)=1.H(1)、(4)称为分类器),并且边缘表示边缘修剪器(此后称为v,k|Nk(v)|uu∈Nk(v)修剪机)。因此,AUC最大化问题是搜索分类器和修剪器以实现公式(2)中提出的目标。H(1 + 1)= σ(W(1)(H(1)<$H(1 + 1)<$··<$H(1 + 1)。(五)然而,同时优化ω和ω是相当困难的v vv,1v,r因为训练它们需要不同的材料。作为分类器在等式(4)和等式(5)中,相邻集合N(v)被划分为r个相邻集合N1(v),N2(v),., Nr(v)表示图G的边集E中的向量拼接。2.3强化学习2.3.1马尔可夫决策过程 RL任务可以被视为马尔可夫决策过程(MDP),并通过最大化预期奖励来解决[35]。MDP可以被描述为四重、,,。准确地说,是状态集;是动作集;是一个函数,返回给定s,a,应该用图中的节点及其标签进行训练;而边缘修剪器应该用我们模拟的轨迹进行训练作为算法1:使用GNN的输入:多关系图G,GNN架构MG1 用随机参数初始化MG← Mω2初始化随机函数;3当中断条件为假时,4ω←arg maxω AUC(Mω|);//参数搜索ed记为P(s′|s,a);R:S ×A×S→R是一个反式函数,5);//策略搜索在转换s→s′完成后提供奖励r在MDP中6端部(MG|我们决定在当前状态s采取动作a,并递归地过渡到新状态s′用于求解MDP的代理可以表示为策略π:。在状态s中,π as返回选择a作为动作的概率给定一个策略π,我们能够通过从时间步t预测收益Gt来评估状态或动作的好坏,定义为∞0γkrt+k+1其中γ0,1是贴现因子。贴现因素权衡未来奖励和即时奖励。具体来说在策略π下,s,a的优度由状态值函数Vπs=EπGtSt=s和Qπs,a=EπGtSt=s,At=a计算. 强化学习的目标是通过求解以下问题来发现最优策略π:arg max.dπ(s)Vπ(s),(6)return:A GNNMω,剪枝策略显示在Alg。为了解决这个问题,我们决定通过解耦优化来训练分类器和剪枝器,将原问题转化为两个子问题(Alg.①的人。 在Alg的第3行。1,中断条件可以通过一定数量的迭代轮或指示收敛的AUC变化的阈值来设置作为一个贪婪算法,我们的框架能够保持AUC的单调增长,因为我们在优化AO-GNN的一部分时修复了另一 为了避免陷入局部最优,我们对两个模块都进行了努力,这将进一步解释。πs∈S在下面的小节中,我们将展示这种训练其中dπ(s)是给定策略π的s的平稳分布。2.3.2政策梯度。 考虑到我们要构造的MDP,其中m是无限的,只包含删除或不删除邻居,我们可以构造一个以θ为参数的策略网络πθ来对策略进行建模,该策略网络以s的表示向量为输入,对每个可能的a输出πθ as。代替来自损失函数的后向梯度,策略网络的梯度不同于公式(6),这是RL的目标详细的梯度表达式由Policy Gradient[36]给出:模式是协同的:分类器为修剪器训练提供更精确的奖励,修剪器提供更清晰的拓扑结构作为分类器的训练材料。3.2分类器参数搜索在本小节中,我们的目标是在Alg中求解第41即 arg maxωAUCω,它代表分类器G. 我们的分类器的architecturee在左边示出图1的一部分。假设我们使用现有的边修剪策略来修剪中心节点v的邻居集合N1(v),...,N r(v)对于r多样nθ = E(Qπ(s,a)n ln πθ(a|(s))。(七)关系然后,我们使用修剪的邻居集n(N1(v)),.,通过等式(4)粗略地计算出每个隐式嵌入H(v ·)。为了执行等式(7),我们可以产生形状像“S0,A0,S1,R1,A1,S2,R2,A2,.,Sn,Rn“,通过从πθ AtSt的采样作用递归地给出初始状态S0。面向AUC的图神经网络欺诈检测WWW1314vL在将最后一层H(l)的隐藏嵌入输入到MLP中之后,我们可以访问预测结果和损失函数 我们指定的AU CWWWMengda Huang,Yang Liu,Xiang Ao,Kuan Li,Jianfeng Chi,Jinghua Feng,Hao Yang,and Qing He1315环境GNNℳ������������修剪的邻居嵌入公司简介H阿吉尔,我边修剪策略搜索国家统计局国家统计局1个������样品?最大值=0最大值= 0状态嵌入E边缘修剪器H������������������������可感知的策略网络������������′GΠt−1α∈RG[]∈Tkℳ������步骤②������������������������联系我们������������输入分类器GNNℳ������′������预测政策电子邮件∇图1:AO-GNN的模型训练示意图。虚线表示修剪的边缘。传统的参数搜索的核心是优化算法,算法2:求解arg max ωAUC(Mω|)损失函数遵循经验风险最小化的理念-(ERM)。为了在参数搜索中最大化度量输入:多关系图,火车组从节点集GVt,验证集Vv简单的想法是设计一个损失函数,内迭代G的V,学习率η 0,要优化的 度量的无偏估计 例如, 交叉熵损失旨在最小化Kullback-Leibler发散; Dice损失[ 26 ]是从F1得分的无偏估计演变而来的同样,我们可以设计一个剪枝策略T0,GNN架构MG,边1在约束条件下随机初始化m0∈Rd +2||M ||2<θ,α0←0;2 对于k= 1,. . . ,Kdo3mk<$mk−1,αk<$αk−1,ηk<$31−kη0,Tk=3k−1T0;损失函数,以基于公式(2)最大化AUC。 作为印度-0 0t1do4因为 =,..., Tk公式(2)中的tor函数不一致[46],我们可以将其替换为5作为L2凸代理。我们消除l1损失,因为它在统计上是-6与AUC一致[9]。然后优化问题可以写成绘制一批节点{v1,v2,., v b};在每个关系N1(vi)← n(N1(v i)),.,Nr(vi)←Nr(vi));作为最小化的损失函数7计算MG(ωk;v i|i)对于每个v i;min Ev,v′[(1−(MG(ω;v|ω)−MG(ω;v′|())2|yv=1,yv′=0]。(八)八计算LAUC(ω,a,b,α,v|在本批中,由(9);ω∈Rd9mk←mk−ηk[mLAUC+λ(mk–tt−1 Lt−1 0然而,公式(8)需要具有不同10αk←αk−ηk[AU C+λ(αk–标签作为输入,不便于生产小批量不11端部t−1αt−1 0梯度离心为了使优化批量友好,使其适用于12mk←1.Tkmk;//ωk是mk的一部分对于大规模图,我们对其进行了解构和转换,13α←.v∈Vv.MG(ωk;v|I(y=1)−.v∈Vv.MG(ωk;v|i)I(y=0);最佳化问题[2]。定理1.公式(8)中的优化问题是等价的K14 端v∈VvI(y=1)v∈VvI(y=0)到minω∈Rd,{a,b}∈R2max Ev[LAU C(ω,a,b,α,v|Π|p)]、(9)return:GNNMωK其中p是欺诈节点的比率,并且随机梯度上升。与传统的损失函数不同,LAU C (ω,a,b,α,v| n,p)= I(y =1)[(1 − p)(MG(ω; v|)−a)2对于最小化,公式(9)中描述的优化问题被分配为鞍点优化问题,其被充分研究+ 2(p− 1)(1 +α)MG(ω; v|()]+I(y= 0)[p(MG(ω; v|)− b)2+ 2 p(1 + α)MG(ω; v| [1]+ p(1− p)α 2.RemAR k. 这个定理与[ 46 ]中的定理1类似,我们给出了一个可理解的证明,并在附录中说明了为什么要引入可学习的辅助参数a,b,α。为了简单起见,我们定义m= ω,a,b Rd +2. 直觉,m通过随机梯度下降更新,而α通过分类器参数搜索步骤①������剪枝图构造边缘修枝机H������������������=������������������ ℳ������ −������������������ ℳ������������′������分类GNNℳ������������′预测结果r分类器GNNℳ������������代理报酬i=1我WWWMengda Huang,Yang Liu,Xiang Ao,Kuan Li,Jianfeng Chi,Jinghua Feng,Hao Yang,and Qing He1316学 术 界 。 如 图 中 所 示 , 2. 我 们 采 用 近 似 原 始 - 对 偶 随 机 梯 度(proximalprimal-dualstochastic gradient,PPD-SG)[18]求解公式(9),获得了目前最好的时间复杂度。在Alg。2,K,T0,η0,λ,λ是超参数。算法的有效性和收敛性。文[18]中的定理2可以证明,但由于超出了本文的讨论范围,本文将其省略在第12行和第13行中,m和α从当前值跳到最后Tk迹线的几何中心,这防止落入局部最优值。面向AUC的图神经网络欺诈检测WWW1317(M)|)→(()())′G(·)(|())c(())( ·)()(( ·)())()vc、修剪邻居节点vp和关系感知节点vp。Mv我|B.C.|u3.3边修剪策略搜索在本小节中,我们将重点解决Alg中的第51即通过训练一个剪枝器,该剪枝器能够将图纯化为pGology并进一步压缩AUC。我们先演示一下我们将边修剪模型化为MDP,并证明了其一致性最后,我们介绍了我们的剪枝器的架构,以及我们如何通过策略梯度来训练它。3.3.1边缘修剪MDP。如前所述,V2:2V2V返回每个节点v的修剪邻居集.搜索优化的最小值并不是微不足道的,这是由于最小值的离散性和2V空间中的复杂性。考虑到这一挑战,我们将整个修剪过程分为单独的修剪或修剪,定理2. 在我们上面构造的MDP下,当贴现因子γ = 1时,等式(10)成立。RemAR k. 我们在附录中给出了定理2的一个证明。 在等式(10)中,从等式(6)导出左部分,其中根据vc和vp之间的关系选择π。 定理2表明策略π 1,...,在上述MDP中最大化奖励期望的π r也最大化AUC。3.3.2修枝机的结构与训练 为了解决这个MDP问题,我们设计了一个剪枝器,它由多个关系感知策略网络组成,如图1右下角所示。1.一、在剪枝器中,决策是一个两阶段的过程:1)生成状态嵌入,s,即Es=(vc,vp,Φvc); 2)计算删除VP岛e. π( ·)(a=1|s)。在第一阶段中,我们使用一个环境变量而不是由π控制的决策过程,它返回一个Mθ来创建状态的嵌入,其动机是[27]使用删除每个邻居的概率换句话说,我们通过逐个删除邻居而不是一次筛选所有邻居来获得每个修剪的邻居集Nv那么整个删除CNGNS来模拟状态空间。基于这样的假设,修剪的邻居是相似的,我们添加原始特征Xvp,嵌入修剪的邻居,HΦvc···HΦvc,以帮助过程可以被公式化为如下的MDP描述状态:v,1v,r• 状态空间S:由中心节点确定的S中的状态sHΦvc=1. 第十条(十一)v剪枝邻集Φv ={\displaystyle\,c},表示为iu∈|阿吉奇|c1 2r三重态(vc,vp,Φvc)。Es = Xv <$H(l)<$H(l)<$HΦvc<$···<$HΦvc。(十二)• 动作空间A:A={0, 1}。在状态s=(vc,vp,Φvc)中,a=1pvcvpv,1v,r从它的r_i_h_b或集合N( ·)(v_c)中删除v_p的r_p表示在等式(12)中,H(1)表示级联,并且H(1)、H(1)通过下式计算:并且a=0表示保持VP作为邻居。vcvp• 状态转移概率空间P:在我们的问题中,下一个状态是确定的,因此对于状态s中的每个a,P是一个常数。• 回报函数R:转换的回报,s,a→s,等式(4)和等式(5),不进行修剪。然后我们输入Es进行匹配πi根据连接vc和vp的边的范畴:πi(a= 1 |s)= Sigmoid(MLP(Es))。 (十三)是AUC,i的变化。e. AUC(Mω′|)−AUC(Mω|),因为0 1,011.而MLP由行动引起的震惊。新AUCG由Geexist计算在每个 A={, }πi(a= |s)=–|s)使用GNN模型MG.显然,当a=0时,R(s,a,s′)=0。具体地说,在一个决策行为中,我们从一个中心节点vc的关系感知邻居集N v c中随机选择能力πa=1s=vc,vp,Φv。如果我们确实修剪了vp,它将被添加到相应的bvc中。通过对邻近的非重复数据b( ·l)e或node执行单一的剪枝操作,可以生成一系列新的关系感知邻居集vc.在这种情况下,我们可以通过我们制定的MDP的策略π来重现边缘修剪策略鉴于我们在中有r个特定的关系,我们可以进一步指定r个孤立的策略π 1,…,πr来生成每个关系中的边的删除概率。后通过相应的关系感知策略π遍历每个邻居节点,查询是否剪枝,从而确定中心节点的所有关系邻居集。形式上,作为vc的第i个关系邻居集,πrNivc可以由πi确定。在解释了π 1,... πr定义一个Π,我们必须给出求解上述MDP和面向AUC的边修剪策略搜索之间的等价性πi由θi参数化。在训练阶段,我们应用经典的策略梯度,REIN- FORCE [36]与模拟轨迹。我们通过从等式(7)生成的上升梯度同时训练所有策略网络。 对于每一轮边修剪策略搜索,我们从随机参数开始训练所有策略网络,这避免了被陷入局部最优3.4加速边修剪搜索参数共享。如图1所示,每个策略网络在共享相同环境的同时都有自己的参数GNN,即θ。由于我们的状态嵌入收集了几乎所有可能的信息,因此所有策略网络工作都可以接受共享GNN。此外,参数共享显著降低了空间复杂度。停止机制。 我们限制删除的最大数量,在一个单一的关系感知邻居集,以限制长度的trajec-tory。当修剪足够的邻居时,该机制将被触发并停止修剪过程,因此较高的停止参数通常导致较长的轨迹。 考虑到噪声边缘可能不占邻域中的大多数,arg max .dπ(s)Vπ (s=(vc,vp,Φvc))每个节点,缺乏停止机制或高停止参数将给RL训练带来稀疏奖励问题[1]短π1,..., πr s ∈S= arg max AUC(M ω)|π1,.,πr)。(十)轨迹不仅节省了制作培训材料的时间,还利用轨迹长度,这可以防止修剪面向AUC的图神经网络欺诈检测WWW1318π1,..., πrG策略,避免在度较大的节点上过度拟合WWWMengda Huang,Yang Liu,Xiang Ao,Kuan Li,Jianfeng Chi,Jinghua Feng,Hao Yang,and Qing He1319()下一页{| ∈ V}()下一页(M)|)−(M|()“()(()()、R(s,a,s′)=F(yv)·–CvcCvcC.替代奖励。 与其他度量导向的RL一样,我们将动作引起的度量变化视为奖励。 由于我们的优化是最大化训练集上的AUC,因此我们仅检查训练集上的AUC变化。当一条边被切断时,图的结构是不同的。则AUC变异为AUCωAUCω、其中AUC在等式(2)中定义。 由expGecta-对于耦合节点,计算出这个值需要O nlogn次(n是训练集中的节点数注意,在一个修剪动作中只有一个节点的邻域被改变,我们可以将AUC变化简化为计算复杂度为O n的代理损失。假设我们有预测欺诈者概率集Pv vT rainin <$Set 对于训练集中的每个节点v。对于一个节点vc,如果我们切掉它的一个邻居,那么它的预测结果就进化了从pvc到pv′c。该行动的主要内容是:我们的数据集在许多方面都有所不同 在欺诈率方面,YelpChi相对温和(14.5%),而Books则非常不平衡(1.9%)。对于平均度,我们有密集图(Amazon , 368.25 )和稀疏图(Books,2.61)。此外,我们有单关系图(Books)和多关系图(YelpChi,Amazon)。数据集之间的差异可以帮助我们说明AO-GNN在实际应用中的良好推广性4.1.2基线。 除了常规的GNN模型(即 GCN [12],Graph-SAGE[10]和GAT [37]),我们还将AO-GNN与几种基于SOTA GNN的欺诈检测模型进行了比较,以检查欺诈检测任务的有效性。在基线中,DR-GCN [34]被设计用于不平衡的图形数据,GraphConsis [22],CARE-GNN [7],PC-GNN [20]被设计用于图形上的欺诈检测。.|(pv|pv∈(pv,p′],yv<$yv}|,p′≥pv除了我们的AO-GNN之外,我们还推出了我们的c−|(pv|pv∈[pv′c,pvc),yv<$yvc}|,pv′c
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
- SPC统计方法基础知识.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功