没有合适的资源?快使用搜索试试~ 我知道了~
IHGNN:交互式超图神经网络用于个性化产品搜索
256IHGNN:用于个性化产品搜索的交互式超图神经网络Dian Cheng1人,Jiawei Chen1人,Wenjun Peng1人,WenqinYe1人,Fuyu Lv2人,Tao Zhuang2人,Xiaoyi Zeng2人,Xiangnan He1人。1中国科学技术大学,2阿里巴巴集团。CDboyOne@outlook.com、cjwustc@mail.ustc.edu.cnpengwj@mail.ustc.edu.cn、ywwwwq@pku.edu.cnlvfuyu91@sina.com、zhuangtao. alibaba-inc.com、yuanhan@taobao.com、xiangnanhe@ g摘要一个好的个性化产品搜索系统不仅要关注相关产品的检索,还要考虑用户的个性化偏好。最近关于PPS的工作主要采用表示学习范式,例如,学习来自历史用户行为者的每个实体(包括用户、产品和查询)的表示(aka. 用户-产品-查询交互)。然而,我们认为,现有的方法没有充分利用关键的协作信号,这是潜在的历史互动,以揭示实体之间的亲和力。 协作信号对于生成高质量的表示非常有帮助,利用协作信号将有利于一个节点从其连接的节点中进行表示学习。为了解决这个问题,在这项工作中,我们提出了一个新的模型IHGNN的个性化产品搜索。IHGNN利用历史用户-产品-查询交互构建的超图,完全保持三元关系,并基于拓扑结构表达协作信号在此基础上,我们开发了一个特定的交互式超图神经网络来显式编码结构信息(即, 协作信号)到嵌入过程中。 它从超图邻居中收集信息,并显式地对邻居特征交互进行建模,以增强目标实体的表示。在三个真实世界的数据集上进行的大量实验验证了我们的建议优于最先进的。CCS概念• 信息系统→个性化。关键词超图;个性化产品搜索;交互ACM参考格式:Dian Cheng,Jiawei Chen,Wenjun Peng,Wenqin Ye,Fuyu Lv,Tao Zhuang,Xiaoyi Zeng,Xiangnan He.2022年IHGNN:用于个性化产品搜索的交互式超图神经网络在ACM Web的会议记录中郑殿殿及陈嘉伟对工作贡献相同†Jiawei Chen是通讯作者。允许免费制作本作品的全部或部分的数字或硬拷贝,以供个人或课堂使用,前提是制作或分发副本的目的不是为了盈利或商业利益,并且副本的第一页上有本声明和完整的引用。版权的组成部分,这项工作所拥有的其他人比ACM必须尊重。允许使用学分进行摘要 以其他方式复制、重新发布、在服务器上发布或重新分发到列表,需要事先获得特定许可和/或付费。请求权限请发邮件至permissions@acm.org。WWW©2022计算机协会ACM ISBN 978-1-4503-9096-5/22/04。. . 十五块https://doi.org/10.1145/3485447.3511954会议2022(WWWACM,美国纽约州纽约市,10页。https://doi.org/10.1145/3485447.35119541介绍网上购物渗透到我们的日常生活中。随着电子购物平台中产品数量的爆炸性增长,用户在没有产品搜索引擎的帮助下发现所需产品几乎是不可能的。当用户提交查询时,搜索引擎将检索每个用户的潜在产品列表。搜索结果的质量对用户满意度和零售商收入都至关重要。与传统的搜索任务不同,传统的搜索任务侧重于找到与查询匹配的项目,产品搜索更具挑战性,因为目标产品是高度个性化的[12,29]。在一个典型的电子购物场景中,即使用户发出相同的查询,他们也会有非常不同的购买意图。 以查询“DeliciousFood”为例,欧洲用户可能期望一些Pasta,而中国用户可能对饺子感兴趣。人们普遍认为,用户购买会受到他们的个性化偏好的影响[2,38]。 因此,产品搜索引擎的个性化非常重要,其目标是“确切地了解用户想要什么,并为他提供个性化建议”[13]。为了实现这一目标,现有的个性化产品搜索(PPS)方法[1,2,4,12,24,42,47,48]主要采用表示学习范式。 他们将每个实体(包括用户,产品和查询)转换为矢量化表示,然后根据嵌入预测用户的购买倾向。 尽管他们的体面的表现,我们认为,现有的方法没有充分利用合作的信号。用户-产品-查询的历史交互中隐藏着实体间的亲和性,这对个性化搜索至关重要例如,参与相同产品的用户可以具有相似的偏好;用户购买相同产品的查询可以具有相似的语义。 当配备了如此丰富的亲和力信息时,一个节点的表示学习可以从其他相关节点中受益,从而产生更高质量的表示。最接近我们的工作是[22],然而,它只利用了三个手动设计的亲和模式,这远远不够。 如何充分利用PPS的协作信号仍然是一个悬而未决的问题。这项工作填补了研究空白。意识到图神经网络(GNN)用于关系表示学习的有效性[15,20],我们希望将其优势用于PPS。在传统搜索[30,43]和推荐[18,37]中,图是呈现查询词匹配和用户项匹配的二分图。WWWDian Cheng,Jiawei Chen,Wenjun Peng,Wenqin Ye,Fuyu Lv,Tao Zhuang,Xiaoyi Zeng,Xiangnan He257()下一页()下一页.)(()下一页U × P × Q→()()∈L联系我们()下一页上PQ LLPQUVE|V |×|E|G(V E).v∈Vd(v)=h(v,e)e∈E0, 如果e断开v,(1)在表示学习中,提出了在超图中显式地建模邻居的高阶特征交互e节点度的Dv和De,在这些图上执行图卷积可以收集来自相似邻居的信息,这显式地增强了具有协作信号的表示。然而,由于两个主要的困难,吸引人的想法对于转移到PPS任务是不平凡的:(P1)比传统的搜索和推荐更复杂,PPS中的交互是三元的而不是二元的-每个交互涉及三个元素:用户,产品和查询。构造一个简单的图来保持三元关系是困难的。例如,如果我们强行将三元关系拆分为用户、产品和查询之间的三个二元关系[17],我们将丢失用户-产品交互发生在哪个查询下的信息。图1(b)给出了一个玩具示例,我们无法确定交互u2,p2发生在哪个查询下:q1,或q2,或两者兼而有之。由于一个简单的图不能完全表示三元关系,我们需要求助于一个更一般的模型开发的拓扑结构。(P2)现有的GNN主要采用邻居特征的线性聚合,忽略了邻居之间的高阶特征事实上,在PPS中,相关实体之间的交互可以是指示目标节点的特征的强信号。例如,当用户搜索“女士包”并最终购买品牌“爱马仕”的包时,查询和产品的交互将生成非常有用的语义(例如,“女性奢侈品牌”),用于剖析用户的偏好。我们需要显式地考虑特征交互以增强PPS的表示。为了解决这些问题,我们建议从三元用户-产品-查询交互中构造一个超图与简单图相比,超图是一种更适合于描述三元关系的数据结构,因为超图的超边可以连接任意数量的节点。 在此基础上,我们进一步提出了一种新的PPS模型,命名为交互式超图神经网络(IHGNN),它递归地聚集沿着上述超图的邻居信息。与用于推荐或非个性化搜索的GNN不同,IHGNN做了两个重要改进:(1)由于超图中的每个超边连接多个节点,IHGNN采用两步信息传播方案-节点聚合,从连接的节点聚合信息以更新超边表示;和超边聚合,从相关的超边收集信息以更新目标节点表示。(2)由于邻域交互在PPS中的重要性,我们显式地进行了邻域的高阶特征交互,然后对交互结果进行聚合以增强目标节点的表示。总之,这项工作作出了以下贡献:(a) 二分图(b)折叠图(c)超图图1:(a)给出了推荐中的用户-产品图的示例,而(b)(c)给出了个性化产品搜索中的折叠图和超图的示例 ui,qi,pi i =1,2,3是表示用户、产品或查询检索的节点,pii=1,2,3,4表示在(c)中示出为椭圆的超边缘。每个用户-查询-产品交互对应于一个超边。有四种相互作用:(u1,q1,p1),(u2,q1,p2),(u2,q2,p3)和(u3,q2,p2)。2初步在这一部分中,我们首先给出了个性化产品搜索任务的形式化定义,然后给出了超图的相关背景知识。2.1个性化产品搜索假设我们有一个产品搜索引擎,它有一个用户集,一个项目集,一个可能的查询集和一个历史用户-产品-查询交互集。设u(p,orq)表示(,or)中的用户(一个项或一个查询)。包括用户-项目-查询三元组U、P、Q的列表,指示用户U已经购买了1查询Q下的产品P。此外,我们使用yupq 0,1来指示相互作用u,p,q是否发生,即,yupq=1,对于u,p,q并且对于u,p,qgL,yupq=0。PPS的目标是学习分数函数f:R,以准确地预测用户u在搜索查询q时购买产品p的概率。2.2超图超图不同于简单图,它是一种更一般的拓扑结构,一条超边可以连接两个或多个节点。设=,,H是超图的一个实例,它包含一个结点集和一个超边集.关联矩阵H描述了超图的连通性,其中条目定义为:1, 如果E连接V,我们用一个用户-产品-查询超图来处理PPS任务,并开发了一个超图神经网络来显式地将协作信号编码到表示学习中。• 我们强调了利用特征交互的重要性在此基础上,我们进一步给出了超图的一些符号 对于每个节点,它的度被定义为; 对于 每 个 边 e∈E , 它 的度 e 是 d ( e ) =。h ( v , e ) .Theyy∈cEandbefurther作为两个对角矩阵嵌入聚合。我们在三个真实数据集上进行了大量的实验,以证明IHGNN每个组件设计边缘度,分别。 设Ev表示一组相关的超边,它们连接到n odev(i.例如, Ev={e∈E|h(v,e)=1}),Ve1我们注意到,这里的在这篇文章中,我们简单地使用“购买”这个词作为更好的描述。··h(v,e)=IHGNN:用于个性化产品搜索的交互式超图神经网络WWW258∈ Q.LG()()(){∈V |()}VVU QPEVL G(V E)∈EParticipate()∈L∈||Q3.2嵌入生成模块该模块旨在将实体映射到公共表示空间。在这里,我们遵循以前的工作[34]将查询的特征转换为它们的表示。也就是说,对于每个查询q,我们利用查询内容信息并使用词嵌入zw上的均值池来生成查询嵌入zq∈Rd:z=w∈qzw|Q|(二更)对于每个用户u∈dU(或产品p∈ P),我们直接生成其从嵌入查找表中嵌入zu∈R(或zp∈Rd)图2:拟议的IHGNN说明表示超边E所连接的一组节点(即, e =v h v,e= 1)。此外,我们可以将节点v的“邻居”(N v)定义为与n o de v(i)共享至少一个超边的节点集合。例如, Nv={a∈V |e∈E,h(v,e)=1 &h(a,e)=1})。3方法在本节中,我们将详细介绍用于个性化产品搜索的IHGNN 。IHGNN的目标是使用用户-产品-查询超图将协作信号显式编码为表示。IHGNN包含四个模块:(1)超图构造模块,根据用户-产品-查询的历史交互构造超图;(2)嵌入生成模块,将实体的特征转化为初始表示;(3)聚类模块,通过收集邻居和高阶邻居的信息来细化嵌入;(4)预测模块,基于细化的嵌入生成用户购买倾向的预测。最后,我们讨论了IHGNN的性质及其与现有方法的联系。3.1超图构造我们首先构建一个超图的基础上历史三元用户产品查询交互。具体地说,给定历史交互作用,我们有一个超图=,,H,包括:(1)其元素表示用户、产品或查询的节点集(即,=);(2)超边集合,其元素表示描述它们之间存在历史相互作用的三元关系(即, eu,p,q,h u,e = 1,h p,e = 1,h q,e = 1)。所构造的超图能保持完全三元性E∈R(|U|+|P|)×d)(i. 例如, 参数矩阵)。3.3聚合模块在这个模块中,我们描述了我们的嵌入聚合方案,它迭代地聚合来自邻居的信息,以将协作信号编码到嵌入中。我们首先说明一层聚合的设计,然后将其推广到多个连续的层。3.3.1一阶聚合。直觉上,超图邻居提供有用的信号来理解目标节点的特征。例如,交互的产品或提交的查询提供了关于用户偏好的直接证据;类似地,相关产品对于描述查询的语义是非常有帮助的。因此,从邻居收集信息以细化目标节点的表示是自然的 与用于推荐[36]或非个性化搜索[45]的GNN不同,我们的IHGNN是在超图上进行的,因此采用了两步信息传播方案-即,超边用作处理和传送来自邻居的信息的媒介。更具体地说,对于每个节点v,如图3(a)所示,我们执行以下两个操作来更新其表示:节点聚合。 在这个阶段,我们将v的邻居传播的信息聚合到相关的超边。具体来说,对于每个e ∈ Ev,我们定义聚合函数如下:me =[zu||zp||(3)第(3)款其中,me表示介质e所包含的信息,u,p,q表示e连接的用户、产品、查询节点,表示连接操作,W R3d ×d是用于从邻居节点提取有用知识的可训练权重矩阵。在这里,我们选择线性变换而不是传统的简单平均,因为超边缘会收集不同类型的节点,我们相信它们可能会做出不同的贡献。超边缘聚合。 在此阶段,我们聚合来自相关超边的信息,以细化节点V为:关系,并通过拓扑结构捕获协作信号。(1) .e∈Eme由此,我们可以很容易地推断出节点图1(c)给出了一个玩具示例。我们zv=vd(v)(四)可以推断用户U1和U2可能具有相似的偏好,因为它们都连接到(发出)查询Q2。 这种超图提供了充分利用PPS的协作信号的机会,例如, 我们可以利用超图嵌入来编码这样的重要信号(即,超图结构)转化为表示。接下来,我们介绍如何利用超图结构来增强PPS。通过这两个操作,邻居节点的知识已经被显式地注入到目标节点的表示中建模相邻要素交互。然而,我们认为,这种线性聚合方案是不够的,忽略了知识的特征之间的相互作用的邻居。在WWWDian Cheng,Jiawei Chen,Wenjun Peng,Wenqin Ye,Fuyu Lv,Tao Zhuang,Xiaoyi Zeng,Xiangnan He259e∈V)ee∈N.−B()()vvvvee当搜索查询q时的产品p如下:e(λzu+(1−λ)zq)zpeee(a) vanilla超图传播(b)具有高阶交互的图3:IHGNN如何聚合来自邻居的信息的说明事实上,在PPS中,邻居的相互作用可能是一个强烈的信号,其中超边缘信息m(l)可以从z(l-1)计算,e u表示目标节点的特征例如,亲-z(l −1),z(l −1)与方程(3)或(6)。最后,我们将一个用户搜索“女士包”,最后购买了袋的品牌不同层学习的表示,以生成实体产品将生成非常有用的语义(例如,“妇女的z= z(0)||(1)||...||z(L)(八)在这一点上,我们进一步开发了如图3(b)所示的改进的节点聚集操作,其明确地对节点之间的特征交互进行建模(即,u,p,q,e是由超边e连接的。我们有:fo1=zu||zq||zp通过这样做,我们用从相似(高阶)邻居传播的信息丰富了初始嵌入。协作信号已经被明确地注入到表示中。3.4预测模块fo2 =(zu <$zq)||(zu zp)||(zq<$zp)fo3=zu<$zq<$zp(五)该模型旨在基于学习的嵌入生成预测由于本模块不是我们的重点,我们仅参考[2]执行。它相对简单,但被证明是有效的。其中,f代表元素乘积,分别为fo1、fo2、fo3。具体来说,我们估计用户u的购买概率,有效地捕获邻居的1,2,3阶特征交互类似物-.∗∗T∗ Σ如:me=[fo1||氟氧||(6)(1)(2)(3)其中λ是控制来自用户偏好和项目相关性的贡献的超参数。这些有用的信息将通过超边聚合进一步传播到目标节点表示中我们注意到,这里我们只是在共享公共超边的邻居之间进行特征交互(即,u,p,q ∈ Ve &e ∈ Ev)而不是3.5模型优化为了公平比较,我们密切关注相关工作[22]来学习模型参数。具体来说,我们优化以下目标函数:而不是在所有邻居之间(即,u,p,qv)。原因是这些特定的邻居是高度相关的,并且它们的相互作用潜在地产生强信号。而且,这种治疗更有效。在所有邻居L=(u,q,p)∈L<$B−yuqp· logyuqp−(1 – yuqp)·日志(1– yuqp)通常无法计算。3.3.2高阶聚合。为了完全利用协作信号,我们进一步考虑堆叠上述聚集模块,使得目标节点的表示可以受益于高阶邻居。事实上,尽管这些节点与目标节点没有直接连接,但它们确实具有一些相似性,并提供有用的知识来学习目标表示。具体地,如图3(b)所示,在第l层中,节点v的表示递归地更新如下:其中−表示包含yuqp=0的三元组的负采样集。3.6讨论3.6.1与 现 有 PPS 方 法 的 连 接 首 先 , 我 们 将 IHGNN 与GraphSRRL进行比较[22]。GraphSRRL明确考虑了三种手动设计的亲和模式-例如, 假设有两个相互作用u1,q,p,u2,q,p,u1和u2可能具有相似的相干性。事实上,这些亲和性模式可以通过我们的模特利用嵌入聚合,(l).e∈Em(l)(七)以及它们的相互作用zq·zp可以传播到rep中zv =ved(v)U1的表示和u2,使得u1和u2有一定的相似性。奢侈品牌基于此有趣的是,我们使用一个线性层来聚集交互信息,yuqp=sigmoid(九)IHGNN:用于个性化产品搜索的交互式超图神经网络WWW260类似的分析可以用于其他模式。除了这些表1:数据集统计。三种模式,我们的IHGNN捕获更多,从而产生更好的性能比GraphSRRL在我们的实验报告。此外,值得讨论的是与一些相关的连接用户查询产品交互阿里-1核心200,000 102,816 220,779 940,946[7]这是一个长期的短期偏好模型。这些冰毒ODS将从用户购买的产品(或提交的查询)推断出用户的长期(或短期)偏好。其实可以阿里-5核心39,976 46,098 39,326 403,982CKM 23,882 3,256 23,550 339,341被认为是利用协作信号的一种特殊方式 我们IHGNN也可以在单层聚合中捕获这种模式我们将从邻居那里收集信息来更新表示。3.6.2与现有超图神经网络连接 近年来也见证了超图神经网络的一些工作[11,41]。这些方法从谱卷积中推导出HGNN,它具有与我们的IHGNN相似的传播方案但IHGNN与HGNN在以下两个方面有所不同:(1)在进行节点聚合时,我们对不同类型的节点赋予不同的权重;(2)我们显式地对邻域之间的特征交互进行建模,这在PPS中是非常重要的。3.6.3与图神经网络的连接在这里,我们主要将IHGNN与折叠图上的GNN进行比较,其中我们将三元关系拆分为三个二元关系。关键的区别在于我们的IHGNN使用了一种媒介(即,超边)来处理和传输信息,使得三元关系可以在整体视图中处理;而GNN只能处理片段信息。 这使得我们的IHGNN通常在折叠图上实现比GNN更好的性能。4实验在本节中,我们进行实验来验证我们的IHGNN的有效性 我们的实验旨在解决以下研究问题:RQ1:与最先进的PPS方法相比,IHGNN的性能如何?RQ2:不同组件(例如,使用超图,加权传播,高阶相互作用)有助于模型的性能?RQ3:不同的超参数(例如,聚集深度L和嵌入尺寸d)对IHGNN的性能有影响吗?4.1数据集我们在实验中使用了三个数据集,包括一个从真实PPS场景中收集的真实世界数据集和两个可用的常规半合成数据集。AlibabaAir数据集。 该数据集来自taobao.com中国最大的电子购物平台之一www.example.com。我们随机抽取了200,000名用户,并收集了他们在2020年12月23日至2020年12月29日期间在平台上的搜索日志。数据集包含用户-查询-产品的显示信息,以及表示用户是否点击产品的标签。大约有930,000次点击和10,000次购买 该数据集还包含基本查询分词结果。用户,查询词/字符,产品都被加密为身份证号码,以保护隐私我们进行5芯和1芯滤波(即,保留实体,CDs_5112,37950967,602一百二十九万六千八百八十五至少5次或1次交互),以生成两个数据集,分别标记为Ali-1Core和Ali-5Core。这种处理方法希望显示我们的模型对冷启动用户(或项目)的鲁棒性。CIKMCup数据集。这是来自CIKM-Cup 2016 Track 2的产品搜索数据集然而,超过一半的搜索日志是匿名的,没有用户ID。另一个缺点是大多数查询是根据类别浏览手动组合的在实验中,为了充分利用数据,我们在过滤掉匿名搜索日志后,保留了类别浏览结果、点击数据和查看数据。此外,还进行了5芯滤波请注意,GraphSRRL [22]直接使用默认推荐结果作为基础事实,这可能与用户真实偏好不一致,因此我们不采用。亚马逊模拟数据集。这是一个由用户对产品的评论组成的评论数据集它被[2]用于PPS任务的早期研究通过将产品的类别字符串视为查询,将用户-产品评论对扩展为用户-查询-产品三元组由于亚马逊数据集是半 合成的,不像本工作 中采用的其他数据集(AlibabaAir)那样令人信服,因此在这里我们只选择一个典型的子数据集(即,CDs_5)用于实验。三个数据集的统计数据见表1。4.2比较方法在我们的实验中测试了以下方法LSE[30]是产品搜索的经典潜在向量空间模型LSE在一个潜在向量空间中学习单词和项目表示,并直接对产品和查询单词之间它不考虑模型用户,因此是非个性化的。HEM[2]通过个性化设置扩展了LSE [30]。HEM采用表征学习范式。 它学习用户、产品和查询表示,然后利用内部产品函数进行预测。ZAM[1]扩展了HEM以确定需要多少个性化。TEM[4]是一种基于transformer的嵌入模型,用于个性化产品搜索。 它通过增加动态控制个性化影响的能力来改进ZAM。其核心思想是将查询序列和用户的购买历史用一种Transformer结构进行编码,对不同的历史项赋予不同的GraphSRRL[22]通过利用三个手动设计的亲和模式来增强表示学习来改进HEM。由于GraphSRRL表现出优于DREM[3],因此我们不将DREM作为基线。········WWWDian Cheng,Jiawei Chen,Wenjun Peng,Wenqin Ye,Fuyu Lv,Tao Zhuang,Xiaoyi Zeng,Xiangnan He261†表2:个性化产品搜索的性能比较粗体字表示该栏中的获胜者此外,最佳基线标记为。“增益”行“<*”和“**”表示改善显著,t检验p <0。05和p <0. 1所示。HR@10Ali-1核心NDCG@10MAP@10HR@10阿里-5核NDCG@10MAP@10HR@10CIKMNDCG@10MAP@10HR@10CDs_5NDCG@10MAP@10LSE0.13730.08480.08700.19790.12570.13430.31470.22150.27350.13000.06960.0515下摆0.14900.09570.09800.22380.14850.16100.41000.35410.46010.14090.07620.0567扎姆0.14120.09150.09780.25590.17490.19160.37670.32730.44910.09380.04820.0345TEM0.13200.09160.10200.24930.17580.19390.44710.35760.45090.12920.06660.0478GraphSRRL0.13060.08720.09520.24450.16590.18110.47290.37290.47000.15770.08460.0625GCN0.17730.11770.12210.25490.17430.18760.44240.35570.43940.14510.07850.0584GAT0.1908†0.1264†0.1329†0.2715†0.1858†0.2018†0.5238†0.4211†0.5217†0.1652†0.0873†0.0638†HyperGCN0.18030.11800.12120.26550.18260.19860.41000.34740.44300.13960.07550.0561IHGNN-O30.2073*0.14650.15910.2894*0.2091*0.23070.5514*0.4855*0.6314*0.1672*0.0893**0.0657**增益8.6%百分之十五点九百分之十九点七6.6%百分之十二点五百分之十四点三5.3%百分之十五点三21.0%百分之一点二2.3%3.0%GCN [20],GAT [33],HyperGCN [11]:我们还设计了三个非常有竞争力的基线-利用基于图的方法来增强表示学习。 GNN和GAT是在折叠图上进行的,而HyperGCN是在与我们相同的超图上进行的。我们注意到,在这里我们不比较其他一些基于图的方法[26],因为它们需要其他边信息,这是不公平的。IHGNN:本文提出的方法。 我们测试了不同版本的IHGNN,其中'IHGNN-O*'表示考虑不同最大阶特征交互的模型。4.3实验装置4.3.1数据分割。 我们根据用户交互的搜索时间将数据集分为3部分:70%用于训练,10%用于验证,20%用于测试。4.3.2评价对于每个测试数据(用户,查询,产品),我们使用前10名设置,其中前10名排名结果用于计算评估指标。 我们使用三 个 传 统 的 指 标 : 命 中 率 ( HR ) , 归 一 化 折 扣 累 积 增 益(NDCG)和平均平均精度(MAP)。HR通过计算搜索结果中出现的阳性产品的比例来关注检索性能。NDCG和MAP是排名算法的常用指标。4.3.3实施细节。我们使用PyTorch实现了IHGNN2。嵌入大小设置为32。我们随机抽取了10个负面产品进行一次用户-查询-产品交互。 我们使用学习率为0.001的Adam优化器来优化所有模型,其中批量大小为100。 嵌入使用默认的Xavier统一方法初始化,其他参数使用Kaiming统一方法初始化。 所有基于图的模型,包括GraphSRRL、GCN、GAT、HyperGCN和IHGNN,都使用2个图层。模型在i9- 9900 X CPU和2080 Ti GPU上训练在训练过程中,我们计算验证和测试数据集的度量我们根据验证集上的最佳NDCG@10结果来选择测试度量。 我们训练所有模型,直到它们收敛以进行公平比较。超参数λ被设置为0。5.2https://github.com/CDboyOne/IHGNN4.4性能比较(RQ 1)表2显示了我们的IHGNN与基线相比的性能。从结果中,我们有以下观察结果:个性化与非个性化。伦敦经济学院的成绩最差。HEM是LSE的个性化扩展,具有更好的性能,这表明个性化是有效的。这个结果很容易理解,因为产品搜索是一种非常个人化的行为。基于图形与而不是基于图形的。在所有的基线中,基于图的方法通常具有更好的性能。 例如,在Ali-1Core上,GCN的性能比没有图的方法好23.0%,GAT在NDCG@10方面的性能好32.1%。在其他数据集上,GCN和HyperGCN通常具有良好的性能,并且GAT总是比其他基线表现得更好这是因为:1)GNN很好地描述了用户,查询和产品之间的关系2)GNN自然地通过多跳邻居来建模用户、查询或产品之间的交互。HEM、ZAM和TEM不利用用户-查询-产品三元组中的交互,GraphSRRL使用的类似元路径的方法不直接利用交互关系。IHGNN与其他人。我们提出的IHGNN显著超过了所有数据集的基线。这是因为:1)超图完全保留了三重交互数据中的信息尽管HyperGCN在Ali-1Core上的表现并没有明显优于GCN,但从HyperGCN到IHGNN的改善远远超过从GCN到GAT的改善。这表明超图的结构为挖掘数据中的个性化信息提供了更好的能力。2)在节点聚合中引入权值。由于不同类型的节点可能携带不同级别的信息,使用权重将提高性能。类似的结果可以从GAT优于GCN的性能中看出。3)高阶特征交互的引入使我们的模型能够捕获数据集中通常存在的特征交互。HyperGCN 与 GCN. 令 人 惊 讶 的 是 , 我 们 可 以 发 现HyperGCN的性能非常接近GCN,甚至在某些数据集上表现更差。这一结果表明,超图虽然携带了丰富的协同信号,但我们需要仔细设计嵌入··IHGNN:用于个性化产品搜索的交互式超图神经网络WWW262∼∼节点IHGNN-up u,pIHGNN-qpq,p HyperGCN u,q,pIHGNN-O1u,q,pIHGNN-O2u,q,pIHGNN-O3加权道具。××√×√√特征顺序111123(a)Ali-1Core NDCG@10(b)Ali-5Core NDCG@10(c)Ali-1Core NDCG@10(d)Ali-5Core NDCG@10图4:在Ali-1/5Core数据集上使用不同层数和不同嵌入大小的性能表3:用于消融研究的IHGNN变体。“节点”表示图中的节点类型,其中包含user(u)、query(q)和product(p)选项。“加权道具”指出该模型是否具有加权传播机制。“Featureorder” refers to the maximum feature interaction order ofthe这是一种享受,享受它的优点盲目使用现有的方法可能不会带来太多的性能增益。我们的IHGNN是专为PPS设计的,比HyperGCN和GCN具有更好的性能跨数据集比较。如4.1节所述,真实世界的搜索数据通常非常稀疏. 因此,我们生成Ali-1Core来测试模型在稀疏数据上的性能。从表中我们可以看到,我们的IHGNN仍然产生了强结果。从Ali- 5Core到Ali-1Core,LSE和GraphSRRL等基线在HR@10和NDCG@10上平均下降40.5%和42.2% 使用GNN(GCN,GAT,HyperGCN)的基线平均下降了30.8%和33.3%。相比之下,我们的IHGNN在这两个指标上仅下降了28.4%和29.9%它表明,我们的模型在稀疏数据4.5消融研究(RQ 2)在表3中,我们列出了用于消融研究的IHGNN的不同变体。消融研究结果见表4。加权节点聚合的贡献 HyperGCN和IHGNN-O 1之间的主要区别在于是否在节点聚合中使用权重。通过比较表4中的结果,我们观察到加权传播带来了很大的性能提升。这是因为加权聚合允许我们的模型在不同的数据集上学习用户,查询和产品的不同重要性。它还有助于了解不同功能的重要模拟高阶交互作用的贡献。通过比较表4中的IHGNN-O 1 3的结果,我们可以发现考虑2阶和3阶特征确实提高了PPS性能。表4:消融研究结果阿里-1核心HR@10 NDCG@10阿里-5CoreHR@10 NDCG@10IHGNN-up0.15230.09970.27110.24100.26550.28120.28730.28940.18930.16370.18260.20350.20940.2091IHGNN-qp0.17500.1171HyperGCN0.18030.1180IHGNN-O10.20380.1427IHGNN-O20.20230.1420IHGNN-O30.20730.1465这个结果与我们的直觉是一致的邻居节点之间的相互作用确实为增强目标节点的表示学习提供了有用的信号。利用完整关系的贡献第4.4节讨论了超图与折叠图的比较效果。在本节中,我们将进一步探讨使用完全关系的效果我们构造了一个只考虑用户和产品节点的模型:IHGNN-up,以及另一个只考虑查询和产品节点的模型:IHGNN-qp。通过比较表4中的IHGNN-up/qp和IHGNN-O 1 3,我们发现使用超图对用户-查询-产品三元组进行建模比在产品搜索场景中仅对用户-产品或查询-产品三元组进行建模要好得多。4.6敏感性分析(RQ3)GNN层数的影响。GNN的层数决定了每个节点在消息传递过程中可以访问多少跳 在这个实验中,我们将GNN层的数量从0 到 6 改变,并测试不同模型的性能,包括 GCN , GAT ,HyperGCN和IHGNN-O3。 结果如图4(a,b)所示。随着卷积层的增加,性能在开始时会变得更好这一结果验证了利用(超)图聚集在推荐系统中的有效性。但当层数超过某一阈值时,性能不再受影响,甚至会随着层数的增加而有所下降。 太深的层可能不会带来额外的协作信号,甚至可能带来一些噪声。嵌入大小的影响。我们还研究了嵌入大小对Ali-1Core和Ali-5Core数据上模型性能的影响我们将嵌入大小从32改变到256。结果如图4(c,d)所示。结果表明,增加WWWDian Cheng,Jiawei Chen,Wenjun Peng,Wenqin Ye,Fuyu Lv,Tao Zhuang,Xiaoyi Zeng,Xiangnan He263嵌入大小有利于IHGNN模型。我们的IHGNN模型优于所有具有不同嵌入大小的基线 我们还观察到,IHGNN的优势在稀疏的Ali-1Core数据集上更加明显,这表明我们的模型具有更好的从稀疏数据中捕获特征信息的能力。5相关工作有三条研究路线与我们的工作直接相关:产品搜索,基于图的产品搜索和超图学习。5.1产品搜索早期的产品搜索是基于从关系数据库中检索的结构数据,如品牌和类别[21,32]。 Duan等人 [8,9]通过分析电子商务搜索日志提出了一种概率混合模型,以有效地匹配查询和标题。但由于查询词与产品名称之间存在语义鸿沟,导致了语义不匹配问题。 一些作品[19,28,31]提出将查询和产品文本映射到隐藏的语义空间中,以使用深度神经网络学习表示。除了语义匹配,个性化在改善用户体验和增加零售商的产品搜索收入 Ai等人 [2]和Geet al. [12]两者都提出了一种分层嵌入模型,以共同学习隐藏语义空间中的用户、查询和产品的表示。然后提出了一个零注意力模型(ZAM)[1],它可以自动确定特定用户查询对的个性化程度。Bi等[4,5]提出了基于transformer的嵌入模型(TEM)和基于review的transformer模型(RTM)来动态控制个性化的影响。 Zhou等人 [47]提出了一种上下文感知的长短期偏好模型来增强当前查询的表示。一些研究人员专注于产品搜索中的不同场景例如流媒体[40]和会话系统[6,44]。一些作品利用产品搜索中的不同信息来帮助排名。Long等人[23]使用受欢迎度结合相关性来提高产品排名。Guo等人 [14]在产品搜索中使用多模态数据。 Wu等人 [39]利用点击和购买数据来共同优化搜索结果。5.2基于图形的产品搜索图嵌入方法在信息检索任务中已被证明是有效的[16]。 Ai等人[3]提出通过产品-类别-产品知识图来构造可解释的PPS模型。同样,Niuet al. [26]针对电子商务搜索中的查询项图,构建了一个双异质图注意力网络。Zhang等人[45]使用基于图的功能来增强学习排名框架。Ren等人[27]使用异构点击图来学习通用搜索意图。我们认为,现有的基于图的方法只包括两种类型的实体((查询,产品)或(用户,产品)),而不是所有的(用户,产品,查询)在构造的图,未能建模的三元关系。我们的实验也验证了三元关系建模是非常有用的。 据我们所知,只有一个工作刘等人。[22]考虑了图中的所有实体,并利用了三种类型的结构用户-查询-产品交互中的关系。但这三种手工设计的模式是远远不够的。5.3超图学习三个或更多实体的关系不能用传统的图来表示。 超图自然地模拟高阶关系。 Zhou等人 [46]首次将超图学习引入到直推分类任务中,将谱聚类的方法推广到超图,超图最初是在无向图上操作的。Feng等人。[11]提出了超图神经网络(HGNNs)来考虑高阶数据结构,以便更好地学习多模态数据的表示 Mao等人 [25]通过建立用户-产品-属性-上下文数据模型,将超图排序应用于多目标推荐任务。Wang等人 [35]开发了一个下一个项目推荐框架,该框架由
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功