没有合适的资源?快使用搜索试试~ 我知道了~
1009基于邻域的链接预测协同过滤算法摘要hfu2@andrew.cmu.edu卡内基梅隆大学Snap Inc.美利坚合众国Kwot Sin Lee<$klee6@snapchat.comSnap Inc.美利坚合众国PatrickPoirson<$ppoirson@snapchat.comSnap Inc.美利坚合众国Chen Wang chen.wang@ snapchat.comSnap Inc.美利坚合众国关键词协同过滤(CF)是推荐系统中最成功、最基本的技术之一.近年来 , 基 于 图 神 经 网 络 ( GNN ) 的CF 模 型 , 如 NGCF [31] ,LightGCN [10]和GTN [9]已经取得了巨大的成功,并显着推进了最先进的技术水平。虽然有大量的文献使用先进的模型分别学习用户和项目表示,但项目推荐本质上是用户和项目之间的链接预测问题。此外,虽然已经有早期的作品采用链接预测的协同过滤[5,6],这种趋势在很大程度上已经让位于专注于从用户和项目节点聚合信息的作品,而不是直接建模链接。在本文中,我们提出了一个新的链接(连通性)评分的二分图,推广了多个标准的链接预测方法。我们结合这个新的分数与用户-项目交互二分图中的迭代度更新过程来利用局部图结构而无需任何节点建模。 结果是一个简单的非深度学习模型,只有六个可学习的参数。尽管它很简单,但我们证明了我们的方法在四个广泛使用的基准测试中显着特别是,在亚马逊图书上,我们展示了召回和NDCG的60%以上的改进。我们希望我们的工作能够邀请社区重新审视协作过滤的链接预测方面,通过将链接预测与项目推荐相结合,可以实现显著的性能CCS概念• 信息系统→推荐系统。在SnapInc.实习期间完成的工作。[2]两位作者对这项研究的贡献相当。本作品在知识共享下许可署名-非商业性使用-禁止演绎国际4.0许可协议。WWW©2022版权归所有者/作者所有。ACM ISBN978-1-4503-9130-6/22/04。https://doi.org/10.1145/3487553.3524712协同过滤,推荐系统,链接预测ACM参考格式:Hao-Ming Fu,Patrick Poirson,Kwot Sin Lee,and Chen Wang.2022年用于协同过滤的基于邻域的链接预测 在网络会议2022(WWW '22同伴)的同伴程序,2022年4月25日至29日,虚拟活动,里昂,法国。ACM,美国纽约州纽约市,10页。https://doi.org/10.1145/3487553.35247121引言在我们今天生活的信息时代,用户经常被选择的悖论所困扰:当有太多的东西时,人们如何有效地找到最好的东西来消费几十年来,推荐系统已经被大量研究以缓解这个问题,并且通常在增强用户体验方面取得了巨大成功[ 8,21,33 ]。 协同过滤(CF)方法旨在利用服务中的显式或隐式用户-项目交互数据来找到用户消费的相关项目,是行业中广泛采用的用于个性化推荐的一些最有效的方法[8,21]。我们的工作恰恰集中在推荐系统的这一方面。在这个领域中,广泛接受的基线是采用矩阵分解(MF)[17]来表示用户和项目的潜在因素,通过基于内存的方法[12,21]或基于模型的方法[17,26,27]实现。其核心思想是对用户和项目进行建模,以便在理想情况下,相似的用户和项目将其表示紧密地位于嵌入空间内。然后,通过将用户与具有最高亲和力的项目进行匹配来解决推荐问题,通常通过其潜在因素的点积或神经网络来确定[28]。然而,这些MF技术只利用用户项目交互数据隐式。当将此数据视为以用户和项目为节点的二分图时,可以显式地合并此类图信息以进行建模:如果用户与项目进行了交互,则两者之间存在二进制链接。在这方面,基于GNN的CF模型,如NGCF [31],LightGCN [10]和GTN [9],是利用此类图形数据进行推荐的最先进模型项目推荐本质上是用户-项目二分图上的链接预测尽管使用GNN进行协同过滤取得了巨大的成功,但一个关键的限制是,WWWFu等1010我UUIO{∈I|() O}()下一页它们仍然学习节点上的表示,并测量两个节点表示之间的相似性,以预测节点之间链路的存在,而不是直接对链路表示建模。在深度学习时代之前,Huang et al. [5]证明了利用标准连 锁 评 分 ( 例 如 , Common Neighbors , PreferentialAttachment [20],or Katz Index [15])在图书推荐任务上的表现优于普通的基于用户和基于项目的协同过滤。Chiluka等人[6]进一步表明,标准链接分数在大规模用户生成的内容(如YouTube和Flickr)上比CF更有效。最近,Zhang等人[34]挑战了使用GNN2.1任务概述我们的核心任务是通过带有隐式反馈的协同过滤(CF)推荐项目这种反馈是隐式的,因为它捕捉用户行为(例如, 购买和点击),其隐含地指示用户的兴趣,并且被表示为用户-项目交互数据。对于每个用户,最多存在一个唯一的二进制文件我们忽略了重复的交互。形式上,设U和I分别是用户和项目的集合,O是由一些u∈U和i∈I组成的观察到的交互。我们定义了一个二元相互作用矩阵M∈B |U|× |我|使得:对于链接预测,由于它的消息传递性质将导致相同的链接表示中的非同构链接Mjk=.1如果(uj,ik)∈O(一)graph.为了解决这个问题,他们使用标记技巧来改进链接预测的链接表示学习,而不仅仅是从两个学习的节点表示中聚合。这些工作都指出了重新审视链接预测的潜在必要性,0否则我们的目标是利用M中的信息来学习评分函数y∈(u,i)表示用户u∈U对项i∈I的概率。项建议。在本文中,我们提出了一个新的二部图的链接分数y(u,i)=y(i|u), y=U×I →R(2)它概括了几个现有的连锁评分,如共同邻居[5],索尔顿余弦相似性[29]和Leicht-Holme- Nerman指数[18]。然后,我们将这个链接得分与轻量级的迭代度更新步骤相结合,这给了我们一个简单的链接预测模型,只有六个可学习的参数。尽管它很简单,但我们提出的方法在多个基准数据集上显着优于最值得注意的是,与我们最接近的竞争对手相比,我们在亚马逊图书上实现了60%以上的改进除了提高分数,我们的工作很容易实施和快速培训。1.1我们的贡献我们工作的主要贡献可归纳如下:我们证明,我们提出的方法,一个简单的链接预测方法,只利用图结构,没有任何用户/项目建模,可以显着优于然后,使用评分函数y=u,i来对给定用户u的未看见项i u,ig的列表进行排序。每个用户的前k个项目的排名可以通过各种度量来评估在本文中,我们遵循以前的工作,并通过对所有用户的Recall@k和NDCG@k进行平均来评估排名2.2二部图虽然交互数据被表示为上面的矩阵,但是我们也可以将交互数据表示为二分图G=(U,I,O),(3)其中 和是两组不相交的节点,是连接中节点和中节点的无向和无权边的集合。这个公式将在后面的章节中讨论基于链接预测的CF模型,因此我们简要回顾一下二部图的一些性质。二分图的邻接矩阵A采用以下形式:最先进的基于GNN的模型,在多个基准数据集上进行高级用户/项目表示学习0m的MT0中国(4)我们提出了一个新的二分图上的链接预测的链接得分L inkProp,它推广了文献中的多个标准链接得分。我们的消融研究为了计算节点之间的路径数,我们可以将A提升到奇数次幂。u∈U和 i∈I演示了这个新的可学习的评分函数优于0(MMT)kM这些标准的连锁分数,这表明了我们的方法的通用性和优越性。A2k+ 1=(MTM)kMT0(五)我们表明,我们的方法对现实数据中常见的交互噪声具有鲁棒性,这使得它可以在工业环境中使用。2背景在本节中,我们描述并制定了我们想要解决的主要任务,以及相关工作在过去是如何解决这个任务的。 我们解释了围绕现有方法的问题,这些问题作为通向下一节中解决这些问题的方法的桥梁。·A=··WWWFu等1011()()∈U ∈I()∈U()∈U()从这里我们可以看到,节点u和i之间长度为2k+1的路径的数量由下式给出:[(MMT)kM]ui(6)设Γui是用户ui的邻居集,则Γuiuj=对于任意uj,由于我们的图是二部图,使得Γ ui.同样,对于任何u和i,ruri=。我们可以定义Γ(u)=Γ(Γ(u))i。e.你的邻居的邻居。re r(u)U和|Γ(u)<$Γ(i)|≥0。相同的条款和声明适用于I.基于邻域的链接预测协同过滤算法WWW1011()下一页.| ()()||( ) ∩ ( )|| ()()|∈U∈I(){()()∈ O <$()∈ O <$()∈ O}.DxX.()下一页.2.3连锁评分我们回顾了经典的链接分数,这是用来衡量的可能性,一个链接应该在图中的两个节点之间形成。我们提出了这些经典的分数,它可以应用于二分图的增强版本。回想一下,我们感兴趣的是预测节点u和i.以下分数的标准版本中的一个常见术语是ΓuΓi。其中我们可以将ΓuΓi视为测量公共邻居的数量,或者等价地,两个节点之间的长度为两条路径的数量然而,如2.2节所述,两组节点,u的邻居和i的邻居,在交集下总是形成空集因此,我们认为,我们将项调整为遵循[5]的ΓuΓi,这是两个节点之间长度为3的路径设P u,i是在我们的图中将u连接到i的(项目,用户)元组的集合,即P u,i=ix,ux :u,ixux,ixux,i公共邻居(CN):由于其简单性和有效性,CN得分被广泛用于链接预测[23]。的CN的标准版本测量两个节点都与之交互的节点的数量或者换句话说,两个节点之间长度为2的路径的数量。因此,在CN的二分版本中,我们计算两个节点之间长度为3的路径的数量。因此,分数是C N(u,i)=|Γ(u)<$Γ<$(i)|图1:LinkProp的图示。我们定义了一个连接系数(i2|u1)基于观察到的u1Particii 1Particii2Particii2路径。2.4标签和链路传播标签传播[13]是一种用于图中半监督学习的既定方法,特别是用于节点分类。在其核心,它假设图中存在同质性,其中相似的节点往往连接在一起。然后,主要目标是通过从标记的节点传播信息来预测未标记的节点属于哪个类我们的方法与标签传播密切相关,因为我们同样将信息从现有的标记数据传播到unla,beled数据,但有一个核心区别:我们专注于链接,而不是=1个(ix,ux)∈P(u,i)(七)结没有标签分配给链接,而是目标是计算潜在链接的强度(得分)直觉,为|P(u,i)|Salton Cosine Similarity(SC):SC [29]测量两个节点u和i之间的余弦相似性:SC(u,i)=,|Γ(u)<$Γ<$(i)|这是有意义的,因为向用户推荐项目的任务本质上是链接预测任务:分配给用户和项目的实际标签是次要的,并且我们最关心的是用户和项目之间是否可以存在链接或交互图1示出了LinkProp的示例。|Γ(u)|·|Γ(i)|=(i,u)∈P(u,i)1u·di(八)3度感知链接传播在本节中,我们将介绍我们提出的链路传播方法LI nkProp和LI nkProp-MultI.我们首先解释如何LI nkProp前-Leicht-Holme-Nerman(LHN):LHN类似于SC,分母中的平方根,因此将缩小分数更高的层次更高的层次[18]。利用用户-项目交互图来产生(软)传播链接以及我们如何计算预测链接. 接下来,我们提出了LI nkProp-MU ltI,它改进了LHN|Γ(u)∩Γˆ(i)|LI nkProp通过执行多次迭代。最后,我们解释(u,i)= |Γ(u)|·|Γ(i)|=(九)我们提出的训练算法3.1链路传播(ix,ux)∈P(u,i)du·di参数依赖(PD):Zhu等人。[35]提出了PD,其中包括一个可调参数λ,以恢复之前的三个连锁评分。具体地,在λ = 0的情况下,我们恢复CN等式7,其中λ = 0。在λ = 5的情况下,我们恢复SC方程8,并且在λ = 1的情况下,我们恢复LHN方程9。这个想法与我们在3.1节中提出的联系分数非常相似。回想一下,我们的目标是在交互图中找到用户和项目之间高度可能的联系朴素的方法是从现有的、观察到的连接传播链接,使得如果节点通过交互图中的现有路径连接,则在用户u和项目i例如,对于一些实施例,链路传播可以如下发生:u1,.,uk和i1,.ik:u1Participi1Participu2Participi2Participi. 其中,链路由(. )参与。)的。也就是说,PDu,i=|Γ(u)<$Γ<$(i)|(|Γ(u)|·|Γ(i)|)λ直接在U1和Ik之间从通过它们的邻居的路径如第2.2节所述,将用户u连接到一(十)=XX项i必须具有长度2k+1。在我们的方法中,我们只考虑长度为3的最短有效路径,原因如下第一、(i,u)∈P(u,i)(du·di)λ我们注意到LightGCN [10]显示了聚合节点嵌入1WWWFu等10121998年,| )↔O}(·)-Participate(){()()∈ O <$()∈ O <$()∈−u1.βγI2、、y(i2|u1)=βγ从三跳内是有效的,是他们使用的设置,Dγ,δ=d−γ·(d−δ)T(14)他们的主要实验第二,通过使用相同的路径长度U约束作为LightGCN [10],我们提供了一个更公平的比较,他们的方法。最后,如果两个节点即使在几次跳跃之后在其局部邻域中也没有任何重叠,则它们不太可能共享相似的项目偏好。回想等式6,用于计算二分图中的奇数路径长度的数量,对于长 度 为3 的 路 径 ,其 为 MMTM 从 这 里 ,我 们 可 以 获 得LInkProp的最终矩阵版本:L=(Dα β<$M)MT(M<$Dγ δ)(15)链接应该具有相同的权重。因此,我们的下一个步骤是用公式表示链接得分函数y,以加权传播的链接u1i2。我们对传播链路的权重与连接u1到i2的路径上节点的度成反比。具体来说,我们使用以下等式对链接进行评分:其中表示Hadamard乘积,并且根据需要,Lj,k=yikuj在算法1中,我们展示了该方法的Numpy代码3.2迭代实体度更新现在我们描述我们的LI nkProp-MU ltI模型,它利用了-- 是的1αδ(十一)在链接传播的迭代之后的日期用户/项目度值(ix,ux)∈P(u1, i2) du1·dix·dux·di2其中P u1,i2 =ix,ux :u1,ixux,ixux,i2,d是节点度,α,β,γ,δ是可学习参数。直观地说,我们的评分函数试图根据它们之间的三跳路径的连通性来衡量任何用户-项目之间链接的可能性。路径上高度连接的节点将具有较高的度,这导致较低的链接权重,反之亦然。这类似于TF-IDF[14,25]的启发式,其中出现在许多文档中的术语往往信息量较少。类似地,假设对于某个u1i1u2i2交互,其中某个用户u1和低程度用户u2享受相同的模糊和低程度项目i1。向用户u1推荐u2也与之交互过的某个项目i2,由于其稀有性,可以证明是信息L(1)是来自等式15的链路传播交互矩阵其包含用户和项目之间的观察到的和传播的链接。我们首先从L(1)中屏蔽掉观察到的链接,基于它们的得分y,对传播的链接进行排序然后,我们丢弃不在链接的前t个比例中的链接。例如,如果我们传播100个链接并设置t = 0。05然后我们将保留五个得分最高的链接。 我们将剩余的链接添加到原始交互矩阵中,并重新计算用户/项目的度值。然后,我们使用更新的用户/项目度值和原始交互矩阵作为链接传播的下一次迭代的输入。这样,我们可以对r重复L(1)的计算还有一个1迭代以获得最终的传播矩阵L(r)。然而,这种多次迭代机制,du1现在影响了传播的分数,因为我们正在对用户之间的链接分数进行1、参与者2链接。这意味着我们需要在L的计算中重新引入dα。从公式11中提出的链接得分函数,我们可以得出与第12节中介绍的几个标准的基于邻域的链接预测得分函数的联系。2.3通过将我们的参数设置为特定值:• 公共邻居(CN):α=β=γ=δ=0• 索尔顿余弦相似性(SC):α = δ = 0。5,β=γ= 0• Leicht-Holme-Nerman(LHN):α=δ=1,β=γ= 0• 参数依赖性(PD):α=δ=λ,β=γ=0因此,我们的模型能够学习α,β,γ,δ的最佳值,这比这些评分函数中的任何一个都更强大和通用我们在SEC的消融研究5.3显示,使所有这些参数都是可学习的,这对我们的强大表现至关重要我们可以进一步简化我们的评分函数,注意在评估期间,对于每个用户,分数将按u1因此,对于该模型变体,t、r、α总共是三个新参数我们可以学习,总共有六个参数对于一致性,我们将r=1的模型称为LI nkProp,将具有多于一个传播步骤的模型简称为LInkProp-MU ltI。3.3模型训练给定一个连续的假设集,可以使用基于正则梯度下降的优化技术来为我们的六个可学习参数找到最佳参数组合。然而,这通常需要一个损失函数(例如LightGCN中使用的BPR损失),它最多充当我们关心的最终评估指标的代理。此外,最佳度量取决于整个系统。例如,如果模型在检索阶段而不是在两个-相同的因子dα,即阶段推荐系统[8],那么召回可能是一个更y(i2|u1)ix,ux∈P(u1,i2)(dix·dux ·dδ)−1(12)与归一化贴现累积增益(NDCG)[22]相比,这是一个适当的度量,因为它不考虑检索项的排序在我们的工作中,我们建议直接优化我们的这是我们针对LI nkProp的评分函数的最终形式。我们现在有一个由β、γ和δ单独形成的连续参数空间,它们是LI nkProp的三个可学习参数接下来,我们导出LI nkProp的矩阵版本 设dui是用户ui的度e,dU∈R |U|是节点的度向量NDCG的模型,没有代理损失函数。由于NDCG是不可微的,我们重新定义参数空间,并执行粗网格搜索的最佳参数。这是可行的,因为我们的模型包含很少的参数,并且我们对每个参数使用较小的在U中,其中re[dU]i=dui,并且对于dI∈R, |我|. 设dαe为当然,假设每个传播的假设我们已经执行了链路传播的迭代让WWWFu等1013Uuiα次幂的度数向量,其中[dα]i=dαUDα,β=d−α·(d−β)T(13)3.4时间复杂度分析在本节中,我们分析和比较了LI nkProp和LightGCN模型训练考虑一个UI基于邻域的链接预测协同过滤算法WWW1014×(·())(/)(/)(/) ()下一页()下一页·//()()下一页()()()()()(· ())(·())具有u个用户、i个项目和l个链接的数据集,其中O u O i和O lO u1. 5O i1. 五、在LI nkProp的训练期间,我们运行дinference以完成对最佳参数的网格搜索在时间复杂度方面的主要操作是计算MMTM,其中矩阵M是具有l个非零值的u i矩阵在稀疏矩阵M以压缩稀疏行(CSR)格式存储的情况下,计算MMTM花费O lmin u,i时间,其中u与i之间的选择通过首先计算MMT或MMTM来确定重复对于<$times,训练LI nkProp是O <$l min u,i。考虑到我们对O u、O i和O l之间关系的假设,我们有O <$l min u,iO<$u2。五、至于训练LightGCN模型,假设它由L个光图卷积层组成,并学习d维表示。此外,该模型被训练了e个时期,批次大小为b。已知存在具有BPR损失的l个训练样本,则在一个时期中存在lb个批次。因此,训练步骤的总数是e lb。对于每个训练步骤,具有Old时间复杂度的光图卷积进行L次,导致总复杂度为Old。结合所有训练步骤,训练LightGCN模型的总体时间复杂度为O l2Lde b。再说一遍,O l2Lde bO u3Lde b.在所有因素中,很明显,用户总数u在规模上明显大于任何其他变量,因此主导了复杂性。因此,LinkProp的训练时间复杂度为O(<$u2. 5)n =0(u2. 5),对于LightGCN是O(u3Lde/b)<$O(u3).算法1LikProp:Numpy伪代码#user_degrees : np 数 组 形 状 ( U , ) 包 含 用 户 度 #item_degrees:np数组形状(I,)包含项目度# M:np数组形状(U,I)包含交互# alpha,beta,gamma,delta:\ourname{}模型参数#通过模型参数对user_alpha = user_degrees**(-alpha)item_beta = item_degrees**(-beta)user_gamma = user_degrees**(-gamma)item_delta = item_degrees**(-delta)#外部产品alpha_beta = user_alpha.reshape((-1,1))*item_beta gamma_delta = user_gamma.reshape((-1,1))* item_deltaHadamard产品数量M_alpha_beta =M * alpha_beta M_gamma_delta =M * gamma_deltaL = M_alpha_beta.dot(M.T).dot(M_gamma_delta)注:点号为矩阵乘法。M.T是M4关于LIGHTGCN的直观地说,LightGCN试图通过他们学习的节点嵌入来匹配一些用户和项目的兼容性,然后根据他们的(中间)节点程度按比例加权这个分数。然而,我们认为,由于项目推荐本质上是一个链接预测任务,因此可以从两个未连接节点之间的潜在链接的得分权重中获得最大的信息源,我们可以进一步推广到我们提出的链接传播得分。如果是这样的话,表1:基准数据集的基本统计数据数据集用户-项目交互用户数 项目数量互动次数稀疏度%Gowalla29,85840,9811,027,37099.92Yelp 201831,66838,0481,561,40699.87亚马逊图书52,64391,5992,984,10899.94LastFM23,56648,1233,034,76399.73表2:检索的参数值参数搜索值α、β、γ、δ0.0、0.17、0.34、0.5、0.67、0.84、1.0R一、二、三、四不0.05、0.1、0.2、0.3、0.5、1.0嵌入是次要的,并且可能是不必要的复杂,因为模型训练甚至可能不完美地收敛。事实上,在计算两个嵌入之间的相似性之前学习节点嵌入的一般方法可以被视为两个节点之间的链接的近似我们的方法不采用这种间接方法,而是直接计算链接在下一节中,我们将展示我们提出的链路传播方法的优越性5实验在本节中,我们首先解释我们用于进行公平和可重复实验的设置接下来,我们展示了我们的方法对竞争性国家的最先进的(SOTA)作品的功效。 我们还进行了消融研究,以了解我们的改进来源,并将我们提出的连锁评分函数与现有的标准连锁评分进行比较。我们进一步研究了我们的方法如何对现实数据中可以看到的不同水平的交互噪声具有鲁棒性总的来说,我们制作这一节来回答以下研究问题(RQ):RQ1:与竞争对手SOTA相比,我们提出的方法性能如何?与标准连锁评分函数相比,我们的广义连锁评分函数表现如何对我们方法的有效性贡献最大的来源是什么?RQ3:我们的方法对现实世界数据中常见的交互噪声具有鲁棒性吗5.1实验设置我们在四个流行的基准数据集上测试了我们提出的模型LInkProp和LI nkProp-MU ltI: Gowalla [7],Yelp-2018 [1],Amazon-book [24]和LastFM [4]。这些数据集的统计汇总见表1为了进行公平的比较,我们使用与以前基于GNN的方法相同的预处理和分割版本的这些数据集[9,10,31],并且我们遵循相同的评估协议和指标。具体来说,我们遵循LightGCN中的设置,其中只有用户以前没有交互过的项目才是排名的候选项,并且通过计算所有用户的平均Recall@20和NDCG@20来衡量评估···WWWFu等1015| | ∗ || ∗ ||| | ∗ | | ∗| |表3:学习参数。方法数据集参数αβγδ不RLinkPropGowalla-0.50.670.34--Yelp 2018-0.670.50.5--亚马逊图书-0.50.50.5--LastFM-0.670.670.34--LinkProp-MULT iGowalla0.340.50.670.340.22Yelp 20180.340.670.50.50.053亚马逊图书0.340.50.50.50.13LastFM0.50.670.670.340.52表4:总体性能比较数据集GowallaYelp 2018亚马逊图书LastFM度量召回@20NDCG@20召回@20NDCG@20召回@20NDCG@20召回@20NDCG@20[27]第二十七话0.12990.1110.04360.03530.02520.01980.07250.0614[11]第十一话0.14060.12110.0450.03640.02590.02020.07230.0637GC-MC[3]0.13950.12040.04620.03790.02880.02240.08040.0736[31]第三十一话0.1560.13240.05810.04750.03380.02660.07740.0693[19]第十九话0.16410.13350.05840.0450.04070.03150.0780.07DGCF[32]0.17940.15210.0640.05220.03990.03080.07940.0748LightGCN[10]0.18230.15530.06490.05250.0420.03270.0850.076GTN[9]0.1870.15880.06790.05540.0450.03460.09320.0857我们的:LinkProp0.18140.14770.06760.05590.06840.05590.10540.1025我们的:LinkProp-MULT i0.19080.15730.0690.05710.07210.05880.10710.1039Rel.改善(%)2.03-0.941.623.0760.2269.9414.9121.24为了防止过度拟合测试数据集,我们在验证数据集上搜索最佳模型参数,我们通过从训练数据中随机抽取10%的用户交互项来创建验证数据集。 由于数据集经过预处理,只包含至少有10个交互项的用户,因此我们保证每个用户的验证数据集中至少有一个项。表2显示了我们在拟合模型时搜索的模型参数集(α,β,γ,δ,r,t)我们可以看到,搜索的参数和超参数组合的总数实际上相当小。对于LI nkProp,我们搜索β γδ=343个组合,并且对于LI nkProp-MU ltI,我们在附加的α tr=168个值上搜索,这使得搜索的设置的总数达到511。注意,在LI nkProp-MU ltI中,在搜索LI nkProp-MU ltI所需的附加值之前,我们首先找到并固定最佳β、γ、δ。在验证数据集上找到最佳模型参数后,我们使用这些设置从原始训练数据中观察到的链接进行推断我们的模型直接为每个看不见的用户-项目对输出相关性得分我们使用预测的相关性分数来为每个用户对未看到的项目进行排名,并将我们的排名与测试数据集进行比较。在表3中,我们示出了在所有四个数据集上由LInkProp和LInkProp-MU ltI5.2RQ1:改进项目建议我们的主要结果与最先进的比较如表4所示。尽管我们提出的模型很简单,但在所有四个数据集的两个指标上,L InkProp-M U lt I优于所有其他模型,除了Gowalla上的NDCG@20,其中我们的方法表现略差于GTN[9]。即使是只有一次传播迭代且没有实体度更新的简化版本LInkProp,在NDCG@20方面,也在四个数据集中的三个数据集上表现优于最先进的模型这证明了我们提出的链接传播方法相对于深度学习和经典MF方法的有效性值得注意的是,我们的模型在亚马逊图书数据集上的表现远远优于其他模型。这是因为亚马逊图书数据集中的用户、项目和交互的数量远远大于其他三个数据集。随着更多的用户,因此更多的排名列表,以及更多的项目需要由模型来满足,在基于节点嵌入的模型中的用户和项目的固定维度的潜在空间的权力,因为用户和项目的数量规模。例如,对于所有节点嵌入模型,潜在空间维度固定为64。这可能足以让模型在较小的Gowalla和Yelp2018数据集中学习实体的信息嵌入,但对于像Amazon-book这样大的数据集来说是不够的。 这意味着,对于这类模型,随着用户、项目和交互数量的增加,它们不仅要创建更长的嵌入查找基于邻域的链接预测协同过滤算法WWW1016表5:LinkProp可学习参数的消融。可学习参数现有标准关联评分?度量召回@20/NDCG@20βγ δGowallaYelp 2018亚马逊图书LastFM00 1比利时(LHN)[18]0.0533 /0.03600.0093 /0.00750.0289 /0.02190.0544 /0.043200 0.5索尔顿余弦相似性(SC)[29]0.1252 /0.09500.0553 /0.04610.0506 /0.04130.0936 /0.092200 0[23]第二十三话0.1367 /0.11420.0468 /0.03850.0348 /0.02780.0786 /0.0752✔0 00.1597 /0.13480.0513 /0.04240.0403 /0.03120.0904 /0.08490✔ 00.1548 /0.12700.0496 /0.04030.0440 /0.03520.0845 /0.079500 ✔参数依赖性(PD)[35]0.1397 /0.11080.0554 /0.04610.0506 /0.04130.0937 /0.0922✔✔ 00.1849/ 0.13500.0568 /0.04660.0532 /0.04160.0986 /0.09290✔ ✔0.1583 /0.12510.0620 /0.05140.0654 /0.05400.0986 /0.0954✔0 ✔0.1615 /0.13310.0584 /0.04870.0527 /0.04240.0999 /0.0982✔✔ ✔林克·普罗普0.1814 /0.14770.0676 /0.05590.0684 /0.05590.1054 /0.1025表的节点,但也需要一个更广泛的具有更高的dimension-sions。因此,在现实世界中应用这些模型是一个挑战,其中数据的规模比我们使用的数据集大得多为了清楚起见,我们将我们的模型的性能与附录A.1中的高维LightGCN进行了比较,其中我们使用了最大的嵌入维度,而没有“内存不足”问题(16倍大),这将LightGCN 的性能提高了16。4%和15。3%的召回和NDCG。 虽然它仍然远远落后于我们的方法(60。2%,69。9%的改善)。相比之下,我们的模型可以更好地扩展到用户/项目的增长。 不需要为每个实体显式地学习固定维度的嵌入,它不受潜在空间的表示能力的限制。因此,我们还消除了调整潜在空间维度和处理与训练基于梯度的模型相关的常见困难的需要。 这反过来又大大降低了训练模型的计算成本,我们在第3.4节中提供了更多细节。5.3RQ 2:消融在表5中,我们示出了当从等式11中定义的我们的连锁评分中排除参数时的LinkProp的性能。 为了排除参数,我们将参数值固定为零。请注意,对于所有不同的参数组合,我们仍然使用训练和验证数据集搜索最佳参数值。从表5中我们可以看出,正如预期的那样,排除所有参数,除了在Gowalla上相对于NDCG@20的表现最差同样,如果我们比较单参数模型,那么i2的δ是最关键的,除了Gowalla。 如果我们仅使用两个参数来比较模型的性能,我们可以看到每个数据集都因组合提供的结果最强而异。最后,我们可以看到,使用所有三个参数提供了最强的结果。此外,我们还通过将这些参数固定为特定值来与现有的标准连锁评分CN、SC、LHN和PD进行比较表5还表明,LInkProp在所有四个数据集上都以较大幅度优于它们这表明了使所有这些参数可学习的重要性。由于我们使用最终度量来学习参数,因此可以轻松地将度量更改为系统所需的度量表6中表6:优化召回时的性能数据集GowallaYelp 2018度量召回@20召回@20[27]第二十七话0.12990.0436[11]第十一话0.14060.045GC-MC[3]0.13950.0462[31]第三十一话0.1560.0581[19]第十九话0.16410.0584DGCF[32]0.17940.064LightGCN[10]0.18230.0649GTN[9]0.1870.0679LinkProp0.18140.0679LinkProp-MULT i0.19170.0700Rel.改善(%)2.513.09我 们 显 示 了 通 过 将 我 们 的 度 量 从 NDCG@20 切 换 到Recall@20,我们能够实现的Recall@20的额外增益5.4RQ3:对噪声的鲁棒性我们比较了我们的方法对基于GNN的CF模型的鲁棒性时,噪声被添加到相互作用的数据。我们遵循GTN [9]提出的实验设置,其中我们将假交互随机插入干净的交互图中,使得噪声比k作为图中总交互的百分比是假的。如图2所示,我们的方法在噪声比为30%或更低时保持其有效性值得注意的是,与LightGCN相比,我们的方法在所有噪声比中都更加鲁棒与GTN[9]相比,它具有最大的稳健性,尽管功效相对较低然而,这是预期的,因为GTN被专门设计为对交互噪声具有鲁棒性6相关工作协同过滤(CF)是一种流行的推荐系统技术.它可以通过基于内存的方法[12,21]或更流行的基于模型的方法[11,17,26-28 ]来解决最近,受图卷积网络(GCN)[16]成功的启发,基于GCN的CF方法激增WWWFu等1017(a)Gowalla-Recall@20(b)Yelp 2018-Recall@20(c)Amazon-book-Recall@20(d)LastFM -Recall@20(e)Gowalla-NDCG@20(f)Yelp 2018-NDCG@20(g)Amazon-book-NDCG@20(h)LastFM -NDCG@20图2:NDCG@20和Recall@20在不同的噪声比扰动交互图。已提出:NGCF [31],GC-MC [3],PinSage [33],Light- GCN[10]和GTN [9]。然而,基于GCN的CF最近的趋势是构建越来越简单的模型,令人惊讶的是,这些模型的性能更好。LightGCN[10]简化了NGCF [31]方法,表明去除非线性和权重矩阵可以改善结果。 在通往更浅模型的道路上,Rendle et al. [28]表明,经过时间考验的点积方法显着优于学习,通过MLP,嵌入相似性函数。EASER模型[30]完全避免使用任何神经网络建模,而只是使用了一个项目到项目的相似性矩阵,该矩阵会降低自相似性,以预测每个用户的热门项目与这些工作类似,我们采取了简化推荐模型的方向,并最终采用了一种不使用任何神经网络建模的方法我们的工作也与图的链接预测问题密切相关[20]。具体来说,我们正在解决二分图上的链接预测任务。Huang等人[5]重新制定了标准的链接年龄分数,以便它们可以应用于二分图。这种重新表述包括用三跳路径的数量的术语替换测量公共邻居的数量的术语。然后将适应的链接测量应用于推荐任务,并带来了基于用户和项目的CF的收益内部链接预测[2]旨在通过投影图并添加不改变投影图的链接来预测二分图中节点之间的潜在Chiluka等人 [6]进一步表明,链接
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功