没有合适的资源?快使用搜索试试~ 我知道了~
24725英里5英里U1一U2U咖啡馆糖果店健身房餐厅一停车场体育场B气体基于位置的社交网络中新用户推荐的少样本学习摘要李瑞瑞UCLArrli@cs.ucla.edu陈秀思UCLAxiusi@cs.ucla.edu线务圣母大学xwu9@nd.edu铎王UCLAweiwang@cs.ucla.edu了解用户的偏好,帮助企业识别新的支持GPS的设备的激增建立了基于位置的社交网络的繁荣,这导致了大量的用户签到。 这些签到带来了了解用户偏好的绝佳机会,并促进了用户和企业之间的匹配。然而,由于庞大的用户和业务基础,用户签入非常稀疏,这使得匹配成为一项艰巨的任务。在这项工作中,我们调查的背景下,确定潜在的新客户在LBSNs的企业特别是,我们着重研究了地理影响,包括地理便利和地理依赖。此外,我们利用基于度量学习的少量学习,充分利用用户签到,促进用户和企业之间的匹配为了评估我们提出的方法,我们进行了一系列实验,使用两个真实世界的数据集与13个基线进行了广泛的比较。结果表明,该方法优于所有这些基线的显着保证金。CCS概念• 信息系统定位服务。关键词顾客推荐;自我关注;少量学习ACM参考格式:李蕊蕊,吴先,陈修思,王伟。2020年。基于位置的社交网络中新用户推荐的少样本学习在网络会议2020(WWW '20)的进行中,2020年4月20日至24日,台 北 , 台 湾 。 ACM , 美 国 纽 约 州 纽 约 市 , 7 页 。https://doi.org/10.1145/3366423.33799941引言作为基于位置的服务的日益流行的应用Insta-gram,吸引了数百万用户分享他们的位置,从而导致大量的用户签到[25,40]。这种前所未有的用户签入的可用性这项工作是在第一作者加入亚马逊之前完成的本文在知识共享署名4.0国际(CC-BY 4.0)许可下发布。作者保留在其个人和公司网站上以适当的署名传播作品的权利WWW©2020 IW 3C 2(国际万维网大会委员会),在知识共享CC-BY 4.0许可下发布。ACM ISBN 978-1-4503-7023-3/20/04。https://doi.org/10.1145/3366423.3379994用户作为潜在客户。然而,新的用户预测LBSNs遭受严重的数据稀疏。因此,了解客户偏好并从严重稀疏的数据中做出准确的预测仍然是一项艰巨的任务。图1:地理位置的影响图2:地理依赖影响为了补偿稀疏数据,各种辅助信息,如地理影响,社会相关性和时间模式,已被利用来以不同的方式提高推荐性能[4,10,19,21,29,35,38]。对于LBSN,地理坐标,即,企业的纬度和经度是最易访问的辅助信息,并且它们也是使基于位置的推荐与其它推荐任务相比唯一的信息。然而,现有的研究大多只是通过测量用户与企业之间的访问距离来研究用户与企业之间的关系。这导致了两个固有的局限性。首先,距离可能不是区分不同用户办理登机手续的交通便利性的准确指标。其次,在提出建议时,附近企业之间的相互依赖关系没有得到很好的建模在这项工作中,我们强调,地理上的便利和依赖性,应纳入,以充分表达地理的影响。图1和图2分别显示了地理便利性和依赖性的两个激励示例。 在图1中,这两个用户都距离企业A 5英里。但距离指标并没有提供太多的区分力,从地理角度来判断谁更有可能如果我们知道用户1倾向于开车,而用户2依赖于步行,那么我们可以测量实际的2473()下一页{()}×WWW更准确地基于便利性而不是原始距离的运输努力。在图2中,两个企业A和B提供相同的服务,用户u可以通过相等的运输努力到达它们。如果不考虑这两个企业的邻近信息,推荐系统就很难就u的偏好将它们区分开来。在现实世界中,两个企业的邻里服务永远不会相同[9]。 如果在进行推荐时对邻域信息进行建模,则可以提供额外的指导,以更全面地了解用户的决策过程,从而做出更准确的推荐。除了采用地理便利性和依赖性来解决数据稀疏性问题外,我们还努力寻求更合适的技术来充分利用用户签到,以改善LBSN中的推荐。少镜头学习旨在从有限的实例中有效地学习,并在不同的领域中表现出显着的性能[12,36,37]。在这项工作中,我们通过优化两种类型的实例,应用基于度量学习的少量学习框架。更具体地说,我们构建了支持实例和查询实例,每个实例由一个用户和一个业务组成。 支持实例是标记的实例,用作引用。查询实例依赖于引用进行推理。该模型通过支持实例和查询实例之间的迭代推理来演化通过这种方式,用户和企业之间的匹配通过明确关注多个其他相关支持实例而得到优化因此,有限的签到被综合利用来进行推荐。本文研究了LBSNs中的潜在新用户推荐问题。本工作的主要贡献如下:在[26,28,34]中,我们假设访问一组训练任务,其中每个训练任务T对应于关于业务b的新用户预测。在训练过程中,我们的目标是学习一个广义的相似性度量,以将一组用户-业务元组与每个任务的一些引用进行比较,每个任务都被设计为模拟少数镜头设置。任务被一个接一个地多次优化 对于每个任务,每次k个观察到的签入元组被随机采样作为参考,表示为R。观察到的签入元组指的是业务-用户对b,u,其中用户u确实在数据集中签入了业务u。此外,两个查询集合,即,正查询集Q+和负查询集Q-,构造,每个集合由c元组组成Q+中的每个查询也是关于b的观察到的签入元组,但与R中的不同。Q-中的每个查询都是一个伪签入元组,其中元组中的用户没有签入b。 因此,可以通过比较两种类型的相似性来优化模型,一种是肯定查询和引用之间的相似性,另一种是否定查询和引用之间的相似性。为每一家企业提供参考应用排名损失来进行模型优化,其中排名损失度量模型如何区分关于一组引用的肯定查询和否定查询。 优化运行多个迭代,每个业务都被优化了不止一次。请注意,对于业务的每次优化,我们可能会选择不同的观察到的签入作为参考和肯定查询。类似地,我们可以构造不同的假签入作为否定查询。一旦经过训练,关于相同业务的所有观察到的签入的嵌入预计在隐藏空间中彼此接近,而假签入的嵌入预计远离观察到的签入的嵌入。3方法我们将地理影响分解为地理对比,贪婪和依赖 地理便利性模型的相对交通努力的一个签入,而地理依赖性建模,使我们的模型邻域意识。我们将元学习应用于基于位置的推荐任务,并将问题表述为基于度量学习的少次学习。我们提出了一个实证评估我们的方法对13个推荐方法在两个真实世界的数据集。 结果表明,我们的方法优于所有的基线方法,在建议潜在的新用户在不同的城市。图3:少量学习框架2.表格设置问题在这项工作中,用户签入被表示为元组b,uB U的集合,其中B和U分别是业务集和用户集。新用户推荐的任务是对给定业务的用户进行目标是将真正的新用户排名高于其他候选人。这里的候选人都是没有检查这个行业。正如我们在引言中提到的,少次学习可以充分利用训练实例,这可能会提高推荐性能。因此,在这项工作中,我们制定了用户推荐任务作为一个基于度量学习的少数镜头学习问题根据几次学习设置在本节中,我们将详细解释如何将推荐任务建模为少量学习,以及如何将地理便利性和依赖性结合起来。该方法将推荐问题分解为一组任务,每个任务只涉及一个业务的用户选择。图3显示了每个任务的少量学习框架在左侧,为企业b构造了参考集合R和两个查询集合,一个肯定查询集合Q+和一个否定查询集合Q-。参考集合由k个随机观察的签入组成,其中在该示例中k=4的肯定查询集由另一个随机选择的c个观察到的签入组成。但是Q+中的签入与R中的签入是互斥的。为了简化说明,将c设置为阳性Q+初始肯定查询嵌入正嵌入sim(R,q+)引用R之后去购物参考嵌入参考中心合理的价格F靠近我sim(R,q-)美味的寿司负嵌入初始否定查询嵌入底片Q-嵌入模块关系模块关注自我关注自我关注···2474业务嵌入地理依赖GCN(一)|)T {T}不()(·)(一)|)的方式∈∈()下一页22小时基于位置的社交网络WWW'20中新用户推荐的少镜头学习1在例子中否定查询集是通过构建c个用户-业务元组来构造的,这样元组中的每个用户都不会签入业务b。参考集在小样本学习的设置中起支持 两个查询集基于参考集,共同进行推理和推断。该框架有两个模块,嵌入模块和关系模块。嵌入模块学习引用和查询的表示,而关系模块比较学习的表示并以肯定查询的表示与引用的表示相似的方式优化它们,然后将其馈送到全连接神经网络中以导出用户-业务元组的初始嵌入。3.1地理便利度建模我们遵循[11]并讨论如何基于用户u的历史签到来建模业务b对于用户u的地理便利性。高斯混合模型[ 23 ]被应用于建模便利性。高斯混合模型是M分量高斯密度:.M而否定查询的表示与应答的表示不同。在实现模型中,F(·)是一个学习的层p(l|Φ)=m=1αm<$(l|µm,μm),(1)引用、肯定查询和否定查询的初始嵌入查询元组。通过F,每个引用/正/负元组都由一个固定长度的向量表示。注意是利用注意机制学习代表的一个其中l是位置向量,αm是混合权重,<$lµm,<$m是分量高斯密度。每个组分密度是一个2变量高斯函数。从形式上讲,<$(l|µm,µm)= 1e−1(l−µm)′−1(l−µm),的引用。自我注意力是另一个注意力层,2π|布勒姆2m|1/2将初始查询嵌入和引用嵌入作为输入,以生成查询的相对嵌入查询的相对嵌入学习使用引用来解释查询中编码的用户签入行为。在关系模块中,基于学习的嵌入,我们通过计算它们之间的相似度将查询集中的每个查询与参考代表进行匹配,表示为sim(R,q)。然后,我们比较得分sim(R,q+)一个肯定的查询q+与一个否定的查询的得分sim(R,q-)其中,Φ是平均位置向量,并且Φm给出协方差。完整的高斯混合模型由来自所有混合分量的平均位置向量、协方差矩阵和混合权重来参数化。Φ用于表示这些参数。对于特定客户,给定由位置向量L=11,. l,GMM似然由下式给出:.不q−。如果否定查询更相似,则会产生排名损失比肯定查询更接近参考代表。模型p(L|Φ)=τ=1p(lτ|Φ)。通过最小化这种排名损失来优化给定元组b,u,F编码四种类型的特征:(1)业务特征,其表示其服务、质量和其它业务自相关因素;(2)用户特征,其表示他/她的偏好;(3)指示b对于用户u的地理便利性的特征;以及(4)指示b的地理依赖性的特征,即,b的邻域信息。 这四种类型的特征共同表达了用户u将在企业b中登记的可能性有多大。用户嵌入我们使用期望最大化算法[2]来估计参数。 在针对客户u的GMM构造之后,给定企业b的地理位置lb,如等式1所示,plb Φ给出企业b对于用户u的地理便利性。我们强调,GMM模型的地理便利性优于传统的基于距离的度量,因为它捕获了访问的相对努力,能够更准确地区分具有不同旅行灵活性的客户。3.2地理依赖模型用户业务地理便利GMM级联初始嵌入在本节中,我们将展示如何使用图对地理邻域信息进行编码,以及如何使用图卷积网络对企业之间的依赖关系进行建模[8]。企业之间的地理相关性用图G = V,E来建模,该图对地理接近性进行了编码。每个顶点v V表示一个企业,具有权重e−λ(vi,vj)的边eE连接每两个顶点vi和vj,其中λ(vi,vj)给出了vi和vj之间的地理距离。因为-图4:特征构造图4说明了用户-业务元组的初始嵌入构造给定一个元组,利用用户嵌入向量和业务嵌入向量对用户进行编码,通常,使用邻接矩阵A来表示G,其中Ai,j=e − λ(vi,vj).图卷积网络(GCN)是在邻近图的,它允许我们提取和聚合每个顶点的邻域信息图卷积被定义为:偏好和业务自我相关的功能,分别。通过考虑H(β+1)=Sigmoid(D–1(β) W(β)),(2)企业的地理位置和用户的历史登记位置。构造了一个地理依赖向量来编码业务的邻域信息。这四种类型的信息连接在一起,其中A=A+I,其中I是识别矩阵,其被添加到在特征传播期间捕获业务 D是矩阵A的对角n odedeg re e ee矩阵。W(β)是GCN中第β层的权重矩阵,Hβ是第β层的输出−2475∈∈∈.C.∪(·)【详细】()下一页计算排名损失L=(q+,q−);1CWWW特别地,H(0)=X和H(β)=Z,其中X是初始顶点其中,Q、K和V表示查询、键和值,特征矩阵,Z是GCN的最终输出,β表示GCN中的层数例如,H0表示业务i的初始特征。通过注意力机制,分别。注意操作计算所有值的加权和,其中查询i和值j之间的权重与查询i和值j之间的交互有关。通过GCiN,i的邻居的信息得到门控Hβ。因此,Hβ不仅代表了基河DQ因子是Q的特征维数,dQ作为一个尺度生意我,我也是,我也是它附近的邻居。3.3嵌入与关系模块算法1:少量训练输入:元学习任务集;输出:一组模型参数Θ;在我们的例子中,自注意操作将查询嵌入到将QRc×d和参考嵌入RRk×d作为输入,通过线性投影将它们转换为三个矩阵,并将它们馈送到注意力层:QR=Attention(QWQ,RWK,RWV),(4)其中投影矩阵WQ,WK和WVRd×d。自注意结果QR通过com学习查询的嵌入R1θ:用正态分布初始化Θ2 foreachepoch = 1:N do3打乱任务集中的任务对查询和所有引用之间的接近度进行配对Q是参考嵌入的加权和,其中每个权重衡量查询和引用之间的行为相似性在这4任务集中的每个Tb都5对观察到的用户签入的集合R进行采样作为参考;方式,QR编码所解释6将观察到的用户签到的集合Q+采样为肯定查询;7构造一个伪用户签到的集合Q−作为否定查询;8学习引用和查询表示;9注意计算参考文献的代表性;10计算引用与Q+和Q-中的查询之间的相似度;通过引用。 我们采用剩余快捷连接[5]来推导查询Q的最终表示,表示为Q_com,如下所示:Qcom=QR+ Q。(五)1213 返回Θ;基于梯度更新θ;引用嵌入:对于引用,我们计算引用代表R¯作为每个引用的加权和,其中权重可以从第二注意力机制中导出。算法1总结了训练过程。对于每个训练阶段,我们逐一完成任务对于每一个任务,我们的目标是区分积极的查询,从消极的查询有关的参考。对于企业b,我们首先对一组k个观察到的签入进行作为参考集,R ={(b,u,r),.,(b,ur)}。然后,我们取样-αi=softmax(σ(WARi+bA)V T)。(六)R<$= αiRi.(七)我公式6和7总结了代表性计算。每个1K另一套C首先将参考输入到一个单层神经网络中,输出独占观察到的签入作为肯定查询集合,Q+={(b,u+),.,(b,u+)}。我们还构建了第三组cRi其中,与上下文向量VC一起,还用于伪检查集作为伪检查集,Q−=b,u1−,.. . ,b,uc−.在构造了参考文献、肯定查询和否定查询之后,我们计算Q+Q-中的每个查询与参考文献之间的相似度。 我们预期,肯定查询更接近引用,而否定查询则远离引用。隐藏空间查询和引用的表示是通过两种注意机制来学习的。通过将查询嵌入与参考表示的嵌入进行比较来计算查询与参考集合之间的接近度/相似度。 对于业务的每次优化,我们随机将正面查询与负面查询配对。如果否定查询比肯定查询更接近引用,则采用排名损失。在下面的段落中,我们将依次详细讨论查询和引用的表示学习、查询-引用相似度计算和排名损失函数查询嵌入:查询嵌入通过合并两种类型的信息来构造。一个编码用户业务交互行为本身,另一个编码表示并注意引用。换句话说,我们尝试使用引用来解释查询中的用户业务交互行为。图3中的F产生第一部分,而第二部分通过引入自注意机制来实现缩放的点积注意力[27]被定义为:通过softmax函数为每个参考Ri生成重要性权重αi代表性的R¯是根据导出的权重计算的参考的加权和。相似性和损失函数:给定一组引用R和对于一个查询q,R和q之间的相似度simR,q被定义为q之间的点积com。从形式上讲,sim(R,q)=R<$qcom.(八)我们应用铰链损失来衡量定义在引用R、正查询q+和负查询q−上的排名误差:n=max{ 0, sim(R,q−)− sim(R,q+)+γ}, (9)其中γ是边际。仅当关于裕度γ的否定查询比肯定查询更接近参考时才产生损失。4实验在本节中,我们在两个真实世界的数据集上进行了大量的实验,以评估所提出的方法的性能4.1数据集和实验设置实验在两个数据集上进行一个是来自Yelp 挑战的另一个是Foursquare数据集。为注意(注意˜ ˜QKT˜Yelp数据集,我们调查了六个推荐任务(,d(3)大城市。Foursquare数据集包含了11Q2476−−(一)|−|)基于位置的社交网络WWW'20中新用户推荐的少镜头学习洛杉矶和纽约的客户和企业 表1显示了两个数据集中八个城市的统计数据。4.2基线为了将我们的方法与其他方法进行比较,采用以下13该方法采用SEATLE算法,它利用了SElf-A的注意力和少量的LEarning。不考虑地域影响的推荐方法:WRMF通过为观察到的和假的签入分配不同的权重来最小化平方误差损失[7]。MMMF基于矩阵分解[31]将铰链损失降至最低。BPRMF优化了观察到的签入和采样的假签入的成对bpr损失[22]。CofiRank[30]基于归一化的贴现累积增益优化了排名损失的估计。CLiMF,[24]优化了不同的面向排名的平均互惠排名损失。具有地理影响的传统方法包括:USG [39]是一种协同过滤方法。它利用用户和企业之间的距离作为额外的指导进行推荐。GeoMF,[16]通过矩阵分解明确地学习用户活动区域(基于距离)和业务影响区域Rank-GeoFM,基于排名的地理因子分解[14]通过矩阵因子分解结合了商业街区信息。ASMF[10]主要利用社交网络信息来改进推荐。ARMF , [10] 通 过 进 一 步 优 化 排 名 损 失 扩 展 了 ASMF 。CORALS[11]对地理便利性和商业信誉进行建模,以改进推荐。具有地理影响的深度学习方法涉及:SAE-NAD,自注意编码器和邻居感知解码器[21]应用自动编码器来提出建议。PACE,偏好和上下文嵌入[35],一种深度神经架构,通过构建上下文图来共同学习用户和业务的嵌入。4.3推荐性能在本节中,我们评估了SEATLE对13种基线方法的性能。 采用平均精度(MAP)作为评价指标,该指标也用于[10,11,13]。图5显示了不同方法在两个数据集的八个城市的推荐性能 图5a到5f显示了基于Yelp数据集中六个城市的表现,而最后两个图5g和5h显示了基于Foursquare数据集中两个城市的表现。在不考虑地理影响的方法中,MMMF、BPRMF、CofiRank和CLiMF的分类性能总体上优于WRMF这表明,实现低预测误差的逐点方法(如WRMF)不一定具有高推荐准确度。在换句话说,直接优化预测签到可能不会向企业提供最佳推荐列表。在利用地理影响之后, Rank-GeoMF 、 ASMF 、 ARMF 、GeoMF、CORALS、SAE-NAD和PACE优于上述五种方法,这些方法不包含任何辅助特征。验证了辅助信息建模可以提供额外的指导和补偿稀疏性问题,基于位置的推荐任务。USG(地理影响建模)在某些城市(如查尔姆斯、拉斯维加斯等)的表现不如预期。这是由于其过于简化的模型设计,这是用户偏好和地理距离分数的直接线性组合,没有适当的优化。 ASMF 和ARMF在foursquare数据集上的性能不如通常在Yelp数据集上实现的那么好。ASMF和ARMF主要关注利用社交网络信息。这表明,社会网络信息可能并不总是可靠的,而综合利用地理影响可能是一个更好的选择,以提高基于位置的推荐任务的性能。一般来说,CORALS优于Rank- GeoMF、GeoMF、SAE-NAD和PACE。 这主要是由于CORALS中采用的地理便利性,而不是其他模型中采用的基于距离的指标。在基于深度学习的方法中,SEATLE的性能最好。原因可以解释如下。 PACE通过上下文图对地理影响进行建模,而上下文图并没有明确地对用户对业务的可达性进行建模。SAE-NAD通过邻居感知自动编码器捕获地理依赖性,但它未能结合地理便利性。总的来说,SEATLE在两个数据集的八个城市中的表现优于所有基线方法。SEATLE模型同时考虑了地理上的便利性和依赖性,这两个因素共同表达了地理影响力此外,SEATLE采用了为有限数据学习而设计的少样本学习,作为充分利用稀疏训练实例的框架。 这些适当的设计使SEATLE非常适合LBSN中的新用户推荐。4.4地理影响分析在本节中,我们将研究地理便利性和依赖性建模的有效性。我们开发了SEATLE con和SEATLE dep通过分别从SEATLE中移除便利性和依赖性特征。为了比较基于一致性和基于距离的影响,我们进一步开发了SEATLE dist,将便利性特征替换为基于距离的内核度量,采用SAE-NAD。更准确地说,度量由expγlilj给出,其中li和lj都是位置坐标,γ用于控制两个位置的相关性水平图6显示了MAP性能。我们观察到,从SEATLE中删除了地理便利性和依赖性特征,MAP性能相应下降。与消除地理依赖性相比,消除地理便利性时的概率降低更多。这一观点适用于所有八个城市。因此,我们可以有把握地得出结论,地理便利性和依赖性模型都提高了推荐性能,地理便利性的贡献更大。我们进一步比较西雅图区·············2477WWW表1:业务和客户统计数据集YelpFoursquare市夏洛特拉斯维加斯麦迪逊凤凰匹兹堡多伦多洛杉矶纽约客户数量69,005432,39926,083314,61051,42258,377501,940717,382企业数量10,652282,2043,89543,4828,03720,849215,614206,4160.060.0200.0250.040.0150.080.060.0200.0150.020.0100.040.0100.0050.020.0050.000.0000.000.000(a) 夏洛特(b) 拉斯维加斯(c) 麦迪逊(d) 凤凰0.050.030.030.0150.040.030.020.020.0100.020.010.010.0050.010.000.000.000.000(e) 匹兹堡(f) 多伦多(g) 洛杉矶(h) 纽约图5:不同方法在八个城市的MAP性能根据企业所在地的距离0.060.040.020.010.080.040.0250.0200.0150.010Ness和最近的客户中心。在[39]中,地理影响是由登记概率之间的幂律分布建模的,0.020.000.040.02(a) 夏洛特0.000.030.020.01(b) 拉斯维加斯0.000.030.020.01(c) 麦迪逊0.0050.0000.0150.0100.005(d) 凤凰能力和两个签入的成对距离[17,42]利用核密度估计来研究客户[20]通过假设客户对相邻POI具有相似的偏好并且同一区域中的POI可以共享相似的用户偏好来利用地理邻域信息。PACE [35]探索了深度使用0.00SEAT LE conSEATL E DE p西 雅 图 区西雅图(e) 匹兹堡0.00SEAT LE conSEAT LE DE p西 雅 图 区西雅图(f) 多伦多0.00SEAT L E conSEAT LE DE p西 雅 图 区西雅图(g) 洛杉矶0.000SEAT L E conS E A T L E DE p西 雅 图 区西 雅 图(h) 纽约神经网络来学习位置嵌入和用户对POI的偏好。SAE-NAD [21]应用自动编码器来学习POI recom-图6:对8个城市的地理影响分析和西雅图。SEATLEdist对基于距离的地理特征进行建模,而SEATLE是基于距离的。我们注意到,西雅图在所有八个城市中的表现都优于西雅图区。 这证明了基于地理模型的优势,因为它更准确地衡量用户的实际运输努力。5相关工作为了解决签到稀疏性问题,在构建推荐模型时纳入了各种辅助信息,例如POI流行度,社会影响力,时间模式,文本和视觉内容[3,4,6,10,15,18,29,32,33,39,41,43]。在这一部分中,我们重点考察了以地理影响为导向的作品。为了利用地理影响力来提高推荐性能,Cheng et al.[1]首先根据每个客户的登记历史记录为他们检测多个中心建议修补APOIR [44]采用对抗生成模型来进行POI推荐。SACRA [13]构建了动态对抗性示例,以在LBSN中进行鲁棒推荐所提出的方法,SEATLE,不同于大多数上述工作。SEATLE既体现了地理便利性,又体现了依赖性。此外,SEATLE采用少量学习来充分利用训练实例,并努力改进推荐从有限的数据。6结论在这项工作中,我们研究了在LBSN中向企业推荐新用户的问题。为了充分利用稀疏的训练实例,我们将推荐问题描述为一个基于度量学习的少次学习问题。我们研究了地理影响,并将其分解为地理便利性和地理依赖性建模。进行了大量的实验,这表明了SEATLE的有效性在两个真实世界的数据集。SEAT L E conSEAT L E DE p西 雅 图 区西 雅图SEAT L E conSEAT L E DE p西 雅 图 区西 雅图SEAT L E conSEAT L E DE p西 雅 图 区西 雅图SEATL E conS E A T L E DEp西 雅 图 区西 雅 图地图地图地图地图地图地图地图地图地图地图地图地图地图地图地图地图2478基于位置的社交网络WWW'20中新用户推荐的少镜头学习引用[1] Chen Cheng,Haiqin Yang,Irwin King,and Michael R.吕。2012年。基于位置的社交网络中具有地理和社会影响的融合矩阵分解。 在AAAI '12,2012年7月22日至26日,加拿大安大略省多伦多。[2] Arthur P Dempster,Nan M Laird,and Donald B Rubin.一九七七年通过EM算法从不完整数据中获得最大似然。 英国皇家统计学会会刊。系列B(方法)(1977年)。[3] 高惠济、唐继良、夏虎、刘欢。2013年。基于位置的社交网络上位置推荐的时间效应研究 In RecSys '13,中国香港,October 12-16,2013.[4] 高惠济、唐继良、夏虎、刘欢。2015年。基于位置的社交网络上的内容感知兴趣点推荐。 在AAAI '15,2015年1月25日至30日,奥斯汀,德克萨斯州,美国。1721 -1727年。[5] 何开明,张翔宇,任少卿,孙健。2016年。用于图像识别的深度残差学习在2016年IEEE计算机视觉和模式识别会议上,CVPR 2016,拉斯维加斯,内华达州,美国,2016年6月27日至30日。770-778[6] 伯虎和马丁·埃斯特。2014年。基 于 位置的社交网络中兴趣点推荐的社会主题建模。2014年12月14日至17日在中国深圳举行的ICDM '14。845-850[7] Yehuda Koren和Chris Volinsky。2008年隐式反馈数据集的协同过滤。In(ICDM[8] 托 马 斯 ·N Kipf 和 Max Welling 2016. 图 卷 积 网 络 的 半 监 督 分 类 。CoRRabs/1609.02907(2016)。1609.02907[9] 威科公司2018.在选择商业设施时评估社区。https://www.bizfilings.com/toolkit/research-topics/office-hr/evaluating- 选 择 商业设施时的社区。[10] Huayu Li,Yong Ge,Richang Hong,and Hengshu Zhu.2016年。兴趣点建议:从朋友那里学习潜在的签到 在SIGKDD '16,旧金山,加利福尼亚州,美国,2016年8月13日至17日。[11] Ruirui Li,Jyunyu Jiang,Chelsea Ju,and Wei Wang.2019年。下一篇:谁是我的潜在客户?挖掘客户决策的智慧在WSDM '19,墨尔本,澳大利亚,2019年2月11日至15日。[12] Ruirui Li,Jun-Yu Jiang,Jiahao Liu,Chu-Cheng Hsieh,and Wei Wang.2020年。有限数据的自动说话人识别。在WSDM的会议记录中,美国德克萨斯州休斯顿,2月3日至7日。[13] 李蕊蕊,吴先,王伟2019年。对抗性学习比较:基于位置的社交网络中的自我关注潜在客户推荐。在WSDM[14] XutaoLi,Gao Cong,Xiaoli Li,Tuan-Anh Nguyen Pham,and ShonaliKrish-naswamy. 2015. Rank-GeoFM:一种基于排名的地理因子化兴趣点推荐方法。在SIGIR433-442[15] 廉德福、葛勇、张扶正、景源、谢星、周涛、永瑞。2015.基于人员移动数据的内容感知协同过滤位置推荐。 在ICDM '15,大西洋城,新泽西州,美国,2015年11月14日至17日。261-270。[16] Defu Lian,Cong Zhao,Xing Xie,Guangzhong Sun,Enhong Chen,and Yong Rui.2014年。GeoMF:用于兴趣点推荐的联合地理建模和矩阵分解。在KDD,纽约,美国,2014年8月24日至27日。[17] 摩西·利克曼和帕德里克·史密斯2014年。使用混合核密度对人类位置数据进行在KDD[18] Bin Liu,Yanjie Fu,Zijun Yao,and Hui Xiong.2013年。 学习兴趣点推荐的地理偏好。在KDD '13,芝加哥,IL,美国,2013年8月11日至14日。[19] Yanchi Liu,Chuanren Liu,Bin Liu,Meng Qu,and Hui Xiong.2016年。具有时间间隔评估的统一兴趣点推荐 在SIGKDD '16,旧金山,加利福尼亚州,美国,2016年8月13日至17日。[20] Yong Liu,Wei Wei,Aixin Sun,and Chunyan Miao.2014年。利用地理邻近特征进行位置推荐。2014年11月3日至7日,中国上海,CIKM。739-748[21] 马晨,张迎雪,王青龙,刘雪。2018年兴趣点推荐:利用具有邻居感知影响的自注意自动编码器。在CIKM。ACM,697[22] Steffen Rendle,Christoph Freudenthaler,Zeno Bronner,and Lars Schmidt-Thieme.2009. BPR:Bayesian Personalized Ranking from Implicit Feedback(贝叶斯隐式反馈的个性化排名) 在UAI '09,蒙特利尔,QC,加拿大,2009年6月18日至21日。[23] Douglas A.雷诺兹2009年高斯混合模型生物医学百科全书。[24] Yue Shi ,Alexandros Karatzoglou ,Linas Baltrunas ,Martha Larson ,NuriaOliver,and Alan Hanjalic.2012年。CLiMF:学习最大化互惠排名与协作少即是多过滤。在RecSys,爱尔兰,2012年9月9日至13日。[25] 克雷格·史密斯。2016年。上一篇:20个重要的Foursquare Statshttp://expandedramblings.com/index.php/by-the-numbers-interesting-foursquare-user-stats/.[26] Jake Snell,Kevin Swersky和Richard S.泽梅尔2017年。 原型网络用于少量学习。2017年12月4日至9日,美国加利福尼亚州长滩,。4080-4090[27] Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,LlionJones,艾丹戈麦斯,卢卡斯·凯泽,伊利亚·波洛苏欣。2017年。注意力是你所需要的一切2017年12月4日至9日,美国加利福尼亚州长滩,。6000-6010[28] Oriol Vinyals,Charles Blundell,Tim Lillicrap,Koray Kavukcuoglu,andDaan Wierstra.2016年。匹配网络用于一次性学习。 在NIPS,2016年12月5日至10日,西班牙巴塞罗那。3630-3638[29] Suhang Wang,Yilin Wang,Jiliang Tang,Kai Shu,Suhas Ranganath,and Huan Liu.2017.你的图像揭示了什么:利用视觉内容进行兴趣点推荐。InProceedings of WWW,Perth,Australia,April 3-7,2017.391-400[30] 放大图片作者:Markus Weimer,Alexandros Karatzoglou,Quoc V.Le,and Alexander J.斯莫拉2007. COFI RANK-协作排名的最大边际矩阵分解。2007年12月3日至6日,加拿大不列颠哥伦比亚省温哥华市NIPS。[31] Markus Weimer,Alexandros Karatzoglou和Alexander J.斯莫拉2015年。 改进的最大间隔矩阵分解。Machine Learning72,3(2015).[32] Xian Wu,Yuxiao Dong,Baoxu Shi,Ananthram Swami,and Nitesh V.乔拉2018. 谁会一起参加这个活动通过深度LSTM网络进行事件出席预测 在2018年SIAM国际数据挖掘会议论文集,SDM 2018,2018年5月3日至5日,美国加利福尼亚州圣地亚哥。180-188[33] XianWu,Baoxu Shi,Yuxiao Dong,Chao Huang,Louis Faust,andNitesh V. Chawla. 2018. RESTFul:行为时间序列数据的分辨率感知预测。在第27届ACM信息和知识管理国际会议上,CIKM 2018,意大利都灵,2018年10月22日至26日。1073-1082.[34] 熊文涵,莫雨,常世玉,郭晓晓,王阳。2018.知识图的一次性关系学习。CoRRabs/1808.09040(2018)。arXiv:1808.09040http://arxiv.org/abs/1808.09040[35] Carl Yang,Lanxiao Bai,Chao Zhang,Quan Yuan,and Jiawei Han.2017年。桥接协同过滤和半监督学习:POI推荐的神经方法。在SIGKDD会议记录中,哈利法克斯,NS,加拿大,8月13日-2017年17号1245-1254年。[36] Huaxiu Yao,Yiding Liu,Ying Wei,Xianfeng Tang,and Zhenhui Li.2019年。从多个城市学习:时空预测的元学习方法在万维网大会,WWW 2019,旧金山,加利福尼亚州,美国,2019年5日。2181-2191[37] 姚华秀,吴贤,陶志强,李亚良,丁柏林,李瑞瑞,李振辉.2020年。自动关系 元 学 习 。 在 国 际 学 习 代 表 会 议 上 。 https://openreview.net/forum?ID=rklp93EtwH[38] Zijun Yao,Yanjie Fu,Bin Liu,Yanchi Liu,and Hui Xiong.2016年。兴趣点推荐:兴趣点流行度和用户规律性之间的时间匹配 InICDM '16,December12-15,2016,Barcelona,Spain.[39] Mao Ye,Peifeng Yin,Wang-Chien Lee,and Dik Lun Lee.2
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 构建基于Django和Stripe的SaaS应用教程
- Symfony2框架打造的RESTful问答系统icare-server
- 蓝桥杯Python试题解析与答案题库
- Go语言实现NWA到WAV文件格式转换工具
- 基于Django的医患管理系统应用
- Jenkins工作流插件开发指南:支持Workflow Python模块
- Java红酒网站项目源码解析与系统开源介绍
- Underworld Exporter资产定义文件详解
- Java版Crash Bandicoot资源库:逆向工程与源码分享
- Spring Boot Starter 自动IP计数功能实现指南
- 我的世界牛顿物理学模组深入解析
- STM32单片机工程创建详解与模板应用
- GDG堪萨斯城代码实验室:离子与火力基地示例应用
- Android Capstone项目:实现Potlatch服务器与OAuth2.0认证
- Cbit类:简化计算封装与异步任务处理
- Java8兼容的FullContact API Java客户端库介绍
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功