没有合适的资源?快使用搜索试试~ 我知道了~
297FairGAN:基于GANs的隐式反馈推荐公平感知学习颉利皇家墨尔本理工大学计算机技术学院澳大利亚墨尔本s3620273@student.rmit.edu.au任永利皇家墨尔本理工大学计算机技术学院澳大利亚墨尔本yongli.renrmit.edu.au柯登皇家墨尔本理工大学计算机技术学院澳大利亚墨尔本ke.rmit.edu.au摘要推荐系统中的排序算法影响人们的决策。传统的基于隐式反馈数据的排序算法旨在通过捕获用户对项目的偏好来最大化对用户的效用。然而,这些以效用为中心的算法往往会引起公平性问题,需要在在线平台中仔细现有的公平性研究没有明确考虑到缺乏负反馈的问题,在隐式反馈数据,而以前的效用为中心的方法忽略了公平性的重要性,建议。 为了填补这一空白,我们提出了一种基于生成对抗网络(GANs)的学习算法FairGAN,将曝光公平性问题映射到隐式反馈数据中的负偏好问题。FairGAN没有明确地将未观察到的交互视为否定的,而是采用了一种新颖的公平感知学习策略来动态地生成公平信号。 这优化了搜索方向,使FairGAN能够搜索最佳排名的空间,可以公平地分配暴露给各个项目,同时尽可能高地保留用户的效用。CCS概念• 信息系统→推荐系统。关键词公平性,排名,曝光,GAN,推荐ACM参考格式:李杰,任永利,邓克。2022年 FairGAN:基于GANs的公平感知学习,用于隐式反馈的建议。 在ACM Web Conference 2022(WWW '22)的会议记录中,2022年4月25日至29日,虚拟活动,法国里昂。ACM,美国纽约州纽约市,11页。https://doi.org/10.1145/3485447.35119581介绍基于内隐反馈数据的建议已经得到了研究人员和实践者的关注,允许免费制作本作品的全部或部分的数字或硬拷贝,以供个人或课堂使用,前提是制作或分发副本的目的不是为了盈利或商业利益,并且副本的第一页上有本声明和完整的引用。版权的组成部分,这项工作所拥有的其他人比ACM必须尊重。允许使用学分进行摘要 以其他方式复制、重新发布、在服务器上发布或重新分发到列表,需要事先获得特定许可和/或付费。请求权限请发邮件至permissions@acm.org。WWW©2022计算机协会ACM ISBN 978-1-4503-9096-5/22/04。. . 十五块https://doi.org/10.1145/3485447.3511958这些推荐算法旨在通过捕获用户对项目的偏好来最大化对用户的平均效用[ 11,41,42 ]。然而,这些以效用为中心的算法往往会导致公平性问题,需要在在线平台中仔细考虑[31,43]。物品的曝光与物品提供者的利益密切相关,如产品销售收入、应聘者获得的工作机会等,物品之间的竞争关系要求以公平的方式将物品的曝光分配给用户。不公平的项目曝光分配会导致马太效应[4,5,7,32],这意味着排名高的项目更有可能收集额外的反馈来影响未来的排名并获得越来越多的用户关注,而排名低的项目将逐渐被边缘化。 虽然有关于这个问题的现有研究,但它们主要集中在研究如何公平地分配项目的曝光[34,37,52],众所周知的例子包括重新排名以保证给定项目相关性得分的单个项目的最小曝光的方法[ 34 ],基于对抗性学习的方法[52],该方法基于给定的推荐模型强制项目组之间的相关性得分分布相似,以及将组公平性作为优化约束的线性规划算法[37]。除了公平性问题之外,在基于隐式反馈的推荐的上下文中存在另一个挑战:如何从未观察到的交互中提取负面信号,因为未观察到的交互是负面交互的混合(即,用户不喜欢该项目)和未标记的积极交互(即,用户不知道该项目)[2,3,15,16]。许多现有的基于隐式反馈数据的推荐模型主要采用两种学习策略:(i)启发式:将所有未观察到的相互作用视为负面并对其分配统一的较低置信度[13,14,26];(ii)采样:确定哪些未观察到的相互作用被采样并视为负面以更新模型参数[1,11,25,36,42,46]。然而,这些方法只关注用户效用最大化,而忽略了推荐公平性的重要性为了填补现有的关注公平问题的研究和关注缺乏负反馈问题的方法之间的差距,(即, 前者没有明确考虑隐式反馈的挑战,而后者没有考虑公平性问题),本文考虑将暴露公平性问题映射到隐式反馈数据中缺乏负反馈的问题。具体地说,我们没有明确地将未观察到的样本视为否定的,而是提出了一种新的学习策略--公平感知学习策略来搜索排序的空间WWW李杰、任永利、邓克298它可以在各个项目之间公平地分配曝光,同时尽可能高地保持用户的效用。考虑到这种新的学习策略,我们提出了一种新的基于生成对抗网络(GAN)的学习算法,称为FairGAN。它由两个组件组成:一个称为排名器,它首先仅从观察到的交互中建模用户偏好;另一个称为控制器,它根据排名器在每次迭代中动态生成的当前排名捕获项目曝光的分布。 利用所捕获的曝光分布,控制器生成并向排名器提供公平信号,该公平信号强制各个项目的曝光相等,以搜索最优排名的空间,该最优排名可以公平地将曝光分配给项目,并保持用户的效用尽可能高。然后,排名器基于由控制器提供的公平性信号在每次迭代中动态地调整生成的排名,甚至最终生成可以向用户公平地暴露项目并保留高用户效用的排名所提出的控制器能够基于不同的公平性目标[8,18,37,38,48]生成各种公平性信号,以满足不同的公平性标准,而不管目标是否可区分。总之,我们的贡献如下:(i)第一个基于GAN的学习算法FairGAN将基于确定性的公平性问题映射到隐式反馈数据中缺乏负反馈的问题,其采用了一种新颖的公平性感知学习策略,该策略不显式地将未观察到的交互视为负的,而是生成公平性信号以搜索最优排名的空间,该最优排名可以公平地分配项目的暴露并尽可能高地保持用户的效用;(ii)灵活的公平性控制器,该控制器能够基于可微和不可微的公平性目标为排名器生成各种公平性信号,以满足不同的公平性标准;(iii)在四个真实世界数据集上的广泛实验表明,FairGAN优于最先进的方法,包括以效用为中心的2相关工作排名中的曝光公平性:由于排名系统的普遍应用,最近的许多作品都关注排名中的曝光公平性[18,31,34,37,38,47,48,52]。在[37]中,作者制定了项目的暴露,并提出了一个计算框架,该框架将线性规划算法应用于基于三种形式的组公平性优化约束的后处理结果排名。Yang和Stoyanovich [47]通过正则化来最小化不同群体之间项目暴露分布的差异。在[31]中,作者提出了第一个动态学习排名算法,该算法克服了富-更富动态,同时实施了可配置的曝光分配方案。在[ 34 ]中提出了一种后处理方法,用于对给定的排名进行重新排名,以强制每个项目至少满足最小曝光机会。然而,所有这些先前的方法都只关注如何公平地分配项目的暴露,而忽略了Top-k推荐中的一类隐式反馈数据[16]所产生的缺乏负反馈的问题。在这项工作中,我们考虑映射的公平分配的曝光问题的问题,缺乏负反馈的隐式反馈数据。拟议的FairGAN能够解决这两个问题关键问题,同时通过一种新的公平意识的学习策略。内隐反馈中的建议:反映自然行为的内隐反馈(例如,然而,这样的一类数据仅提供了部分正反馈信号,并且未观察到的用户-项目交互是负反馈的混合(即, 用户不喜欢该项目)和未标记的积极反馈(用户不知道该项目)[16]。 已经做出了许多努力来解决这个问题,众所周知的例子包括基于启发式的方法[13,14,26,29]和sam。基于采样的方法[1,11,36,42,45,46]。 高效神经矩阵分解(ENMF)[14]是一种基于经验的方法,将隐式反馈数据中的所有缺失条目视为用户的负反馈,并在学习过程中对未观察到的数据分配较小的置信度。 贝叶斯个性化排名(BPR)[36]是一种使用基于采样的学习策略的成对方法,该方法假设观察到的用户-项目交互的排名应高于采样的未观察到的对应项。基于采样学习策略的其他著名的基于神经元的方法应用均匀负采样器来均匀地选择未观察到的交互并将其视为负的。然而,所有现有的方法都只关注用户效用最大化,而忽略了公平性在推荐中的重要性。在本文中,我们提出了一个公平意识的学习策略,不显式地对待未观察到的相互作用为负,而是生成公平信号,以搜索具有高效用的公平排名的空间基于GANs的推荐系统:生成对抗网络(GANs)[21]是生成模型(简称G)和判别模型(简称D)的组合。 通过G和D之间的持续对抗博弈,G最终可以在D的指导下模仿地面真值的分布。越来越多的研究人员被吸引到将GAN在几个领域的成功[ 9,17,23,28,39 ]迁移系统[11,12,40,42,44,51]。例如,IRGAN [42]为GAN在信息检索(IR)和推荐系统中的研究开辟了一条新的道路。在IRGAN中,G对用户的相关项的索引进行采样,D学习从G生成的项中区分地面真值项。 CFGAN [11]引入了一种矢量对抗训练方法,将每个用户购买矢量视为训练实例,以完全利用条件GAN [30]的优势,在协同过滤(CF)中生成更高的推荐质量。现有的这些方法都通过基于采样的学习策略从隐式反馈数据中随机抽取未观察到的数据,显著提高了推荐质量。然而,这些方法忽视了公平问题的考虑。与现有的工作不同,在本文中,我们应用了基于更稳定的Wasserstein GAN [6]的公平感知学习策略,并采用梯度惩罚[22]来训练所提出的FairGAN中的排名器和控制器,最终生成具有高用户效用的公平排名3问题陈述在这里,我们陈述了最优排名的问题,该排名可以公平地分配曝光给用户,同时保留高用户的效用。 设U和I是用户和项目的集合,其中|U|=mFairGAN:基于GANs的隐式反馈推荐公平感知学习WWW299vR.[]{}|I|v()下一页(.U(π)=U(π)ku∈UKU(π)u Unf(π)kK、(四)Kv∈Ilo<$1∗.b,(5)bv=k用户u从排名πu中获得的效用表示为(+rank(,|(kKD=v,v′∈I|Exp(v|πk)−Exp(v|πk)|2Nv′ ′ Exp(v′′|πk)2V−1(+rank(u,v | ·))uk并且=n,我们使用下标u表示用户,v表示项。设R=ru m×n0,1为用户-项目数据矩阵,以指示u是否购买或点击了项目v。表示为R中观察到的条目的集合,即,R的非零值。在隐式数据中,用户-项目交互R被定义为:ru=1,如果观察到交互(用户u,项目v),(1)0,否则。其中,1表示用户u和项目v之间的交互,指示u喜欢v的肯定实例,而0不一定意味着u不喜欢v,很可能u不知道v。考虑由θ参数化的评分函数f,用户和项目特征到R,R的每个条目rv通过以下公式估计:图1:FairGAN的结构。其中,bu是指示所述位置的相对重要性的位置偏差r= f(u,v |θ)。 Top-k推荐问题是由如估计用于对项目进行排序的评分函数F我们用πu表示用户ubk y的Top-k项的推荐列表减少由f估计的关于用户u的所有项目的分数:项v在用户u的Top-k排名中被放置的位置。如果推荐v,我们将其设置为DCG [27]中的标准定义为u,否则为0πu =[arg sortv ∈I f(u,v|θ)]k.联合洛代11u v πu、 如果v∈πu,作为uK0,否则。表示为U(πk),而所有用户上的项目的不公平性表示为有了物品暴露的定义,我们可以-Unf πk,其中πk是所有用户的Top-k项的推荐列表的集合在本文中,我们将最优排名问题表述为优化问题精细不公平Unf πk暴露差异(IED)。)的个别项目作为个人arg maxU(πk),(2)在那里,我们考虑先搜索空间最佳参数k1上的定义。当任何一对项目对用户保持相同的暴露时,个体暴露差异就成立了。为了最大限度地减少任何一对单独项目之间的差异,我们调用基尼系数[19],它是com-可以最大限度地提高θ来诱导最优排序πk,monly用于测量成对差异,因此个体联合然后我们考虑最小化不公平πk(IED)的暴露差异表示为:在排序πk中的项目之间:argmin..′θ为了解决这个优化问题,我们首先定义效用用户的不公平性,然后在所有排名中制定项目ks的不公平性3.1使用者公用程式推荐项目的相关性分数可以用于导出用户从排名中获得的效用。用户u的 效 用 通常可 以 定 义 为 排 名 度 量 标 准 化 折 扣 累 积 增 益(NDCG)[27]在排名πu上:IED的值范围为0到1,其中0表示完全平等,即所有单个项目具有相同的暴露,而1表示单个项目之间暴露的最大不平等在本文中,我们的目标是产生一组排名πk,这是能够减少差距IED尽可能多的同时保持高效用U。4费尔根为了解决第3节中定义的优化问题,我们提出了一种基于GAN的解决方案,称为FairGAN,由两个组件组成。U(πu)= DCG(πu) ∗如图所示(1)),其中排名器组件学习kDCG(πu)评分功能,使用户和控制器的效用最大化组件学习向排序器提供公平性信号,其中DCG(·)=.ru对于用户u,π是对于用户u,r和k(u,v)的最优排名|·)是项v在用户u的排名中所处的位置。3.2 基于曝光的公平性我们考虑了各个项目之间基于确定性的公平性问题根据以前的工作[18,31,37,48],我们首先定义项目v在排名πk上的暴露:捕获用户偏好;(ii)训练控制器以捕获项目的当前曝光分布;(iii)通过生成公平性信号并调整排名器来控制公平性接下来,我们说明学习算法每个组件的方法。4.1第1001章排位赛(第一阶段)显示了在第1训练排名器组件的过程1Exp(v|πk)=muvu∈U在图的左侧区域(一). 排序器由一个由θ参数化的生成模型(简称G)和一个判别模型(简称G)组成。真的吗?D阶段2:培训控制员计算风险项目ePexpreatreatP数据拉巴克PGGCRelevnceScre s^r拉巴克梯度Ge^PG公平第一阶段:训练排位签名第三阶段:控制公平真的吗?θ(六)(七)Unf(πk)。(三)最小化等式中定义的视差(七)、在训练FairGAN期间的每次迭代中有三个阶段,(i)训练排名器以WWW李杰、任永利、邓克300GvGDGDD∈RGDGDG–G()GGGn¨¨–.()下一页GDDGG()GDG.¨¨.鲁汶湾的目标函数如下:GMax{D(ru|cu)−D(G(cu)<$ru|cu)(同样地,控制器还采用WGANs-GP来学习GD. 形式上,控制器的值函数表示为:)参数为Θ,这是一个极大极小博弈。受[11]的启发,和在排名中是用户条件的,以考虑用户的个性化。具体地,给定用户u的条件向量c u,期望生成n维稀疏向量r_u,其中与u的已处理项r_u(v_u)相对应的所有元素希望为1.类似地,给定用户u从你对E的依赖。为了解决[11]中从原始GAN继承的学习不稳定性和收敛困难的问题,我们采用了GAN的最新变体,具有梯度惩罚的WGANs(WGANs-GP)[22]来学习和排序。形式上,和之间的两人极大极小博弈的价值函数表示为:最小最大E[D(r|c)]−E[D(r)|c)](8)在Eq.(7)同时尽可能多地捕捉真实用户-项目交互的分布。生成公平性信号和基于所生成的信号控制排序器的公平性的过程将在第4.2节中讨论。4.2控制器(阶段2和3)然后,我们详细介绍了第2和第3的过程,如图所示(一). 为了生成可以最小化任何物品对的暴露的差异的公平性信号,在阶段2中,控制器首先基于由排名器导出的当前呈现的排名来捕获物品的暴露的分布。在实践中,控制器基于所有项目的排名πn(其中n是项目的数量)来捕获曝光的分布,以保证公平性信号能够为排名器提供足够的空间。此外,这允许所生成的公平性信号G DrP数据RGλEPr[(b)(c)(D)(e)|c)2−1)2],以指导排名者在任何可能长度k(1kn)的排名中公平地分配曝光类似地,控制器也由生成模型组成其中Pdata是地面实况的数据分布,P是由r=c隐式定义的生成模型分布。P_r_n被隐式地定义为沿着从数据分布P_data采样的点对之间和发电机分布PG。上学期的核心思想是(简称G)和判别模型(简称D),判别模型(简称D)的参数为λ,它是一个极大极小博弈。具体地,G将由生成的用户u的估计的曝光度向量r_u作为输入,并输出n维曝光度密集向量,其中元素表示排名πu中的项目v的曝光度。最优评价点包含梯度范数为1的直线用户U。而Dn学会区分暴露分布连接来自P数据和P[22]的耦合点,λ是惩罚系数。由G从基于以下计算的真实曝光分布生成:在生成的G.从形式上讲,u uvG和D是用于优化θ和Θ的神经网络,通过ev=bu计算排名πn中用户u的v,其中分别最小化和最大化值函数具体来说,就是那个目标。D的有效函数表示为:v∈πu。v和u∈U?min maxE[D(e)]−E[D(e)](11)-λ [(r u)D(ru|cu)2−1)2]},其中ru是指示符向量,其指定用户u是否具有购买项目v(ru= 1)或不购买项目v(ru= 0),并且代表元素-G De.经验ePGλEPe[(eD(e)<$2−1)2],v v其中P明智的乘法同样,生成的目标函数经验;经验模型G表示为:minu∈U−D(G(c u)<$r u|c u)。(十)PG是生成模型分布,由e=Gr隐式定义。Pe也被隐式定义为沿着从Pexp和PG采样的点对之间的直线均匀采样[22]。G和D也是神经网络,并通过curu驱动器不从其中获得损失的梯度关于非购买(未观察到的)物品,这是由基于观察到的用户-物品交互的逐点CF模型[11,14,26,33]的共同思想启发的。然而,这将导致简单地生成购买向量,其中所有元素都是1到1。欺骗[11]。为了应对这一挑战,以前的研究[1,11,13,14,26,29,36,42,45,46]将未观察到的项目视为不缺失而是零,以搜索捕获真实相互作用分布的空间。然而,他们没有考虑在介绍部分中描述的推荐系统中的公平性与这些现有的研究不同,所提出的FairGAN的排名器不将未观察到的交互视为零,而是通过控制器生成的公平性信号进一步调整。请注意,排名器仅在正反馈上进行训练,因为只从w.r.t.积极的反馈期望公平性信号驱动排序器能够搜索可以最小化IED的最优排序的空间值函数Eq.(十一)、D的目标函数表示为:max{D(eu)−D(G(ru))−λ[(euD(eu)2−1)2]},(12)u∈Ueu是用户u的项目曝光向量,其中元素是排名πu中所有n个项目对用户u的曝光。ru由G生成,即,=G()min−D(G(ru)).(十三)u∈U通过G和D之间的对抗学习,G可以基于在每次迭代中生成的相关性得分动态地产生单个项目的曝光假设G是最优的,从G生成的曝光能够完全模仿从G导出的排名π n的真实曝光分布,即,是的。FairGAN:基于GANs的隐式反馈推荐公平感知学习WWW301GGGGGGGGD.uexp(G(′ u,(15)v|(c))差距是:[客户端]2Nv′ ′ P(v′′|πn)·ˆ5.1实验设置有了生成的曝光率的分布,我们接下来考虑在每次迭代中生成公平性信号,并基于它们调整排名器,这是图3所示的阶段3(一). 基于我们在定义1中定义的基于确定性的个体公平性定义,期望由得出的排名πn在每次迭代中对个体项目的暴露e具有低差异。然而,e的计算相对于参数θ是 不 微 分 的 ,我们不能直接更新θ以最小化个体曝光差异。为了解决这个问题,我们考虑通过e的近似来优化πn,即,e. 由于e由G生成,并且和G之间的关系是直接的,因此我们可以通过最小化等式中定义的IED来固定G并经由反向传播直接更新θ。(七):.v,v′∈I|ev−ev′|产品包含909,314个用户和130,006个项目之间的1,243,186次交互;以及4)数字音乐收集478,235个用户和266,414个项目之间的836,006次反馈。 在[11,26,36]之后,我们将所有相互作用视为值1。 所有数据集都通过过滤出交互少于10次的用户和项目来处理。 我们使用80%的交互作为训练数据集,其他的作为测试数据集。然后,我们留出20%的训练数据集作为调整超参数的验证数据。 所有实验均通过5倍交叉验证进行,并报告测试数据集的结果平均值。以效用为中心的基线。 我们比较了5个最先进的以效用为中心的基线:(i)BPR [36]是一种基于隐式反馈的Top-k推荐的成对方法,使用基于采样的学习策略;(ii)CFGAN [11]是一种基于GANs的AP。最小αθ2n.v′′∈I,(十四)ev′′基于抽样学习Top-k推荐方法ing策略,采用矢量对抗学习式中,ev是项目v的近似暴露量之和所有用户的排名πn 通过最小化这一目标,G生成公平信号,驱动搜索最优排名的空间,该空间可以公平地分配项目的曝光,同时尽可能多地捕获真实用户-项目交互的分布。α是控制推荐质量和曝光差异之间的权衡的可调参数FairGAN中的控制器的主要优点是足够灵活,以应用其他不同的公平性目标,包括可区分和不可区分的公平性目标,而不仅仅是基于公平性的公平性。4.3模型训练综上所述,FairGAN动态地学习在每次迭代中生成的呈现排名的排名器和控制器,其采取小批量方式的形式。通常,在模型训练期间的每次迭代中存在三个阶段:(i)经由等式更新生成器的参数θ、Θ和排序器的参数θ。(10)Eq.(ii)通过等式(9)更新G和D的参数(13)Eq.(12)捕捉项目的暴露分布。请注意,我们在每次迭代中重新初始化了R2和R3(iii) 更新参数θ通过方程(14)缓解公平性差距。在对这三个阶段进行特定步数的训练后,模型最终输出的参数θ。 整体算法如算法1所示。 通过这种相互学习过程,FairGAN能够在尽可能保持高效用的同时优化公平性。请注意,前两个GAN提供高质量的推荐;(iii)CDAE[46]使用基于采样的学习策略,通过去噪自动编码器学习损坏的用户项目偏好的潜在(iv) ENMF[14]是一种基于神经的矩阵分解模型,用于Top-k推荐,通过有效地学习来自整个训练数据的参数,而无需采样;(v)IRGAN[42]是一种基于GAN的方法,由一个生成器和一个利用生成器选择的未标记数据的生成器组成,该生成器来自学习器的信号学习项目上的相关性分布以公平为中心的基准线。 我们与CF中最先进的公平模型进行比较:(i)FairRec [34]是一种后处理方法,用于根据预测的相关性得分对推荐进行重新排名,以保证每个项目的最小暴露。上述五个以效用为中心的基线(称为基本排名器)的预测被馈送到FairRec进行重新排名,重新排名的推荐列表分别表示为FairRec-BPR、FairRec-CDAE、FairRec-CFGAN 、FairRec-ENMF和FairRec-IRGAN,作为公平基线。(ii)Reg [35,49,50]通常用于最小化推荐模型中项目之间的差异,其通过正则化来惩罚差异。 在这个基线中,我们通过FairGAN中的排名器进行测试,并使用正则化项来最大限度地减少项目之间的暴露差异。由于Eq.对于直接更新FairGAN 中的排名器的参数,等式(5)是非差分的,我们遵循[50]通过重写等式(5)来最小化曝光差异(5)第v项的前一概率[10]:阶段可以使用其他机器学习模型(如深度神经网络)来实现FairGAN应用GAN作为实现所提出目标的技术的原因是GAN是1P(v|πn)=m∈U。v′exp(G(v |cu))∈I尖端技术,并在推荐系统中取得了巨大成功5实证评价当reG(v′|cu)是项目v对用户u的预定依赖分数由G.最小化个体暴露的正则化项正则化=η·。v,v′∈I.|πn)− P(v′|πn)|,(十六)|, (16)数据集。 我们在四个真实世界的Amazon数据集上进行了实验[24],这些数据集通常用于推荐系统。1)玩具和游戏包括来自1,342,911名用户的2,252,771次互动,涉及327,698个项目;2)美容包括2,023,070次互动,1,210,271个用户和249,274个项目之间的交互; 3)Office其中η是用于在效用用户增益和公平性之间进行权衡的可调参数。我们在5, 10, 15, 20, 25, 30, 35, 40.类似地,为了公平比较,在比较推荐质量时,我们将Reg的不公平性降低到与FairGAN相同的我们将玩具游戏和美容的η设为15,WWW李杰、任永利、邓克302G模型玩具和游戏美容R@10G@5G@10IED@5IED@10P@5P@10R@5R@10G@5G@10IED@5IED@10BPR3.3972.7353.6155.8274.2174.83068.96162.29911.2309.05312.44819.55214.09516.24780.05473.6293.4362.9223.6726.2784.2305.03192.45389.25010.3067.36412.34817.41013.51114.88164.98758.184CDAE3.4082.7853.2975.7154.0754.74398.39597.34511.5679.44512.40519.63614.41816.60591.46687.774CFGAN3.4382.8143.6296.1144.3925.07480.81776.06111.0958.95312.62619.74314.32816.58983.91677.539ENMF3.4072.7433.6835.9654.0534.73185.15181.40410.3328.41611.86818.81313.01815.26189.49484.527IRGANFairGAN-13.7192.9634.2376.7284.7935.49745.98638.01613.00010.01814.39421.47116.93418.90751.03742.731FairRec-BPR3.0362.5393.3605.5323.4874.19040.74338.00210.4098.47511.52018.33012.35514.53354.13050.2963.0012.6363.1655.6413.3544.31950.39646.70810.3347.39412.40117.50413.60414.97364.49456.169FairRec-CDAE3.1402.7673.0375.5203.4014.34381.12391.14210.5078.76111.34218.38312.03714.53063.05961.457FairRec-CFGAN3.1492.5193.3355.4653.5734.12745.36342.4099.5647.98510.97017.61211.38614.05743.44441.215FairRec-ENMF3.0362.6123.2815.7783.3534.40559.06255.91910.0908.40011.51518.66612.02014.52072.15770.399FairRec-IRGAN2.1691.7052.3733.7222.8223.18338.06529.8639.4127.35810.66516.15612.10613.74347.16039.306RegFairGAN-23.4192.6593.9365.9204.4885.03337.18528.65512.2639.15813.85019.85316.08817.64641.85833.759FairGAN-33.2072.4953.6125.6454.2064.71934.91626.78811.3838.40413.02618.65215.11016.53839.36531.985模型P@5P@10R@5办公室R@10产品G@5G@10IED@5IED@10P@5P@10R@5数字R@10音乐G@5G@10IED@5IED@10BPR4.2463.6915.1868.9725.4246.80385.52181.93211.5638.96415.01522.50616.22718.63473.67166.7103.8682.9924.5777.0725.1975.93388.13078.51412.1209.17115.82423.18417.08819.36673.24266.588CDAE4.9334.0295.8179.5556.2147.48394.53492.91312.5099.51616.51324.26517.69820.13873.10766.426CFGAN4.3203.7085.1918.8365.5496.85989.53086.61912.4319.49516.39924.02217.69320.07881.65275.952ENMF4.3193.6345.1898.9215.4416.75091.38989.31210.4288.22213.50820.68814.57716.87490.38186.934IRGANFairGAN-15.1674.1126.40510.2606.8388.08871.52166.01513.32610.04017.17425.20818.99021.44763.83155.168FairRec-BPR3.7043.3524.6678.1304.3155.48065.37663.50510.7158.58213.96221.48713.35816.41743.36042.7583.9393.0264.6997.2185.2375.93782.57673.50711.9509.09115.60922.96616.70418.94172.91066.061FairRec-CDAE3.8703.2964.6798.0024.2395.47548.52048.07411.8139.22015.49623.56315.13818.15956.50553.927FairRec-CFGAN3.4842.9804.2327.3533.8925.02946.80046.17811.0898.87114.63422.47513.51216.67345.54341.965FairRec-ENMF4.1013.5434.9458.7114.7426.07478.71178.32110.3688.22713.24220.66213.43615.90780.89479.121FairRec-IRGAN3.0412.4473.7545.9224.0934.82042.17534.3306.5264.3498.99311.43110.22510.75245.21234.570RegFairGAN-24.6363.7545.6619.0586.2577.39058.22351.62712.0889.23015.75322.95017.45219.72346.77437.192FairGAN-33.8943.0004.6727.2525.2726.03841.48334.04111.6588.64115.20721.61316.80018.72742.75533.080表1:四个真实世界数据集(k)上的推荐质量(P@k、R@k和G@k)和公平性(IED@k),以百分比(%)表示= 5和10,建议的项目数最好的结果是粗体。办公产品和数字音乐等超参数的最优修复后 .指标. 我们使用常见的Top-k(k n)排名指标来评估推荐质量,包括精度(P @ k),召回率(R @ k)和归一化折扣累积增益(G @ k)。公平性度量IED @ k,即, 个体暴露等级差异πk定义见等式(七)、 P @ k、R @ k和G @ k越大,推荐质量越好,而IED @ k越小,推荐越公平。参数设置。我们的FairGAN是用Tensor-Flow1实现的,这是一个用于深度学习的开源软件库所有超参数根据验证数据的结果进行调整所有基线方法的参数在初始化为原始论文中的设置后进行调整以实现最佳性能为了重现性,本工作的所有源代码已公开发布2,参数设置的详细信息见附录。我们将FairGAN设置在由等式中的参数α控制的不同公平(14),分别表示为FairGAN-1、FairGAN-2和FairGAN-3。 FairGAN-1具有较小的α,旨在证明FairGAN的公平感知学习策略可以有效地搜索最优排名空间,从而在保持公平性的同时最大化用户效用。 由于FairRec在不同基础排名器上的性能差异,FairGAN-2和FairGAN-3被设置不同的较大α值,以公平地与以公平性为重点的基准FairRec和Reg进行比较,我们使FairGAN-2或FairGAN-3在公平性上与基准具有相同的性能水平,然后比较推荐质量。1w.org2https://github.com/jasonshere/FairGAN5.2与基线的比较与以公用事业为重点的基线的比较:结果见表1。 具有99%(95%)置信水平的双尾配对t检验表明,FairGAN-1在所有数据集上的推荐质量(公平性,在数字音乐上p值略高0.061)上显著优于最先进的以实用性为中心的基线。具体而言,FairGAN-1在推荐方面的平均改善率为9.62%、12.52%、7.07%和5.62在4个数据集上,质量和公平性分别为36.15%、24.02%、17.90%和14.82%。 这证明了所提出的公平意识学习策略在从公平意识搜索空间捕获用户偏好而不将未观察到的交互视为负面的方面的有效性。有趣的是,我们注意到稍微提高公平性可以在不影响热门项目原有高排名的情况下提升冷门项目,从而可以进一步提高推荐质量。更重要的是,FairGAN更好的公平性验证了控制器解决非微分优化问题的能力。与以公平为中心的基线的比较:然后,我们将FairGAN-2和FairGAN-3与FairRec和Reg进行比较。 如结果所示,FairRec可以有效地减少来自基本排名器的预测的IED,当使用ENMF作为基本排名器时,其通常在公平性改进上表现得更好(平均减少IED@546.012%,IED@10 45.631%)。然而,CDAE的公平性改善很小(平均将IED@5降低13.251%,IED@10降低14.574%)。这公开了FairRec的性能与基础排名器高度耦合,而FairGAN独立于任何其他推荐模型,能够动态搜索可以最大化排名效用的公平最优排名的空间在结果中FairGAN:基于GANs的隐式反馈推荐公平感知学习WWW303egFairGAN-1FairGAN-2FairGAN-3BBBFBRB注册FRFRFR FR[客户端]−0.050.040.030.4 0.60.8IED@100.180.160.140.4 0.60.8IED@100.080.070.060.050.4 0.60.8IED@100.20.150.1FairGAN-1B BFairGAN-3FRFR RFairGAN-2FBRFairGAN注册RCDAEIRGANCFGANFRBBPRENMF0.4 0.6 0.8IED@10(a) 玩具和游戏(b) 美容(c) 办公产品(d) 数字音乐图2:所有型号的NDCG@10和IED@10B表示以公用事业为中心的基线的结果,FR表示FairRec的结果粉红色的点表示拟议的公平GAN的结果。0.30.20.100.80.60.4FairGAN-3RegBPRCDAECFGANENMF项目项目5项目0.20510 1550K100200IRGAN图4:关于美丽的数据可视化。图3:FairGAN的NDCG @ k和IED @ k以及数字音乐的基线。Reg能够通过将暴露定义重写为最高一概率来有效提高基于风险的公平性[50]。然而,在具有相同的公平性水平时,Reg牺牲的推荐质量比FairGAN多得多。FairGAN-3在推荐质量(在四个数据集上的平均改进分别为6.549%、13.662%、10.351%和5.423%)和公平性(在四个数据集上的平均改进分别为44.
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 构建智慧路灯大数据平台:物联网与节能解决方案
- 智慧开发区建设:探索创新解决方案
- SQL查询实践:员工、商品与销售数据分析
- 2022智慧酒店解决方案:提升服务效率与体验
- 2022年智慧景区信息化整体解决方案:打造数字化旅游新时代
- 2022智慧景区建设:大数据驱动的5A级管理与服务升级
- 2022智慧教育综合方案:迈向2.0时代的创新路径与实施策略
- 2022智慧教育:构建区域教育云,赋能学习新时代
- 2022智慧教室解决方案:融合技术提升教学新时代
- 构建智慧机场:2022年全面信息化解决方案
- 2022智慧机场建设:大数据与物联网引领的生态转型与客户体验升级
- 智慧机场2022安防解决方案:打造高效指挥与全面监控系统
- 2022智慧化工园区一体化管理与运营解决方案
- 2022智慧河长管理系统:科技助力水环境治理
- 伪随机相位编码雷达仿真及FFT增益分析
- 2022智慧管廊建设:工业化与智能化解决方案
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功