没有合适的资源?快使用搜索试试~ 我知道了~
62→→PEAR:基于上下文化Transformer的个性化重排序推荐李毅深圳国际研究生院清华大学中国yi-li20@mails.tsinghua.edu.cn苏良才深圳国际研究生院清华大学中国sulc21@mails.tsinghua.edu.cn华为诺亚方舟实验室中国tangruiming@huawei.com摘要朱洁明华为诺亚huawei.com蔡国豪华为诺亚caiguohao1@huawei.comXiXiao深圳国际研究生院清华大学中国xiaox@sz.tsinghua.edu.cnCCS概念刘伟文华为诺亚liuweiwen8@huawei.com琦张华为诺亚zhangqi193@huawei.com何秀强华为诺亚hexiuqiang1@huawei.com推荐系统的目标是向用户提供最符合其兴趣的有序项目列表重新排序作为推荐流程中的一项关键任务,近年来越来越受到关注。与单独对每个项目进行评分的传统排名模型相比,重新排名旨在明确地对项目之间的相互影响进行建模,以进一步细化给定初始排名列表的项目的排序。在本文中,我们提出了一个 个 性 化 的 重 新 排 序 模 型 ( 称 为 PEAR ) 的 上 下 文 化 的Transformer的基础上。PEAR对现有方法进行了几项重大改进具体地说,PEAR不仅捕获特征级和项目级交互,而且还从初始排名列表和历史点击项目列表中对项目上下文进行建模。除了项目级别的排名分数预测,我们还通过列表级别的分类任务来增强PEAR的训练,以评估用户对整个排名列表的满意度。在公共数据集和生产数据集上的实验结果表明,与以前的重新排序模型相比,PEAR具有更好的有效性。两位作者都对这项工作作出了贡献。†通讯作者允许免费制作本作品的全部或部分的数字或硬拷贝,以供个人或课堂使用,前提是制作或分发副本的目的不是为了盈利或商业利益,并且副本的第一页上必须尊重作者以外的其他人拥有的本作品组件的版权。允许使用学分进行摘要 以其他方式复制、重新发布、在服务器上发布或重新分发到列表,需要事先获得特定许可和/或付费。请求权限请发邮件至permissions@acm.org。WWW©2022版权归所有者/作者所有。授权给ACM的出版权。ACM ISBN 978-1-4503-9130-6/22/04。. . 十五块https://doi.org/10.1145/3487553.3524208• 信息系统→推荐系统。关键词推荐系统,个性化重排序,TransformerACM参考格式:Yi Li , Jieming Zhu , Weiwen Liu , Liangcai Su , Guohao Cai , QiZhang,Ruim- ing Tang,Xi Xiao,and Xiuqiang He.2022年PEAR:个性化的重新排名与上下文Transformer的建议。在2022年网络会议(WWW '22伴侣)的伴侣临-CEETENSION,2022年4月25日至29日,虚拟活动,里昂,法国。ACM,美国纽约州纽约市,5页。https://doi.org/10.1145/3487553.35242081介绍推荐系统在我们的日常生活中扮演着越来越重要的角色,服务于各种各样的Web应用,例如电子商务、社交网络、新闻馈送等。由于严格的延迟要求,工业推荐系统通常遵循匹配排名重新排名流水线以逐渐将候选项的数量从数百万减少到数千,数百,并最终减少到数十。 由于推荐系统的最终目标是向用户提供有序的项目列表,因此重新排序成为一项关键任务,近年来受到越来越多的关注[1,16,23,28]。大多数排名模型仅单独考虑每个用户-项目对的特征,并通过逐点[6]、逐对[3]或逐列表[22]损失来学习评分函数。然而,这些模型不能明确地模拟特征空间中的项目之间的相互影响相比之下,重新排名的目的是模拟评分63WWW通过将项目列表联合编码为上下文表示来发挥作用,因为项目的得分通常取决于放置在同一列表中的其他项目[16]。这导致更复杂的模型架构,其通常用于细化十位数的排序前30个)的项目。为了实现这一目标,已经进行了一些先驱性的研究工作[1,16,23,28]具体来说,GlobalRank [28]和DLCM [1]采用递归神经网络(RNN)顺序或双向编码初始排名列表。但是RNN在捕获成对项目关系方面的能力有限。 后来的研究,如PRM [16]和SetRank [15],将transformers中的自我注意机制应用于项目之间的相互依赖性建模。Transformer体系结构由于其在建模任何两个项目的交互方面的有效性和在并行化方面的效率而更有利。虽然这些模型都侧重于重新排序建模,但它们没有充分利用推荐系统的独特性,即个性化。特别是,许多现有的研究使用Web搜索数据集评估重新排名的有效性[1,15,16,21]。我们认为,在推荐系统中,一个项目的排名不仅取决于初始排名列表的上下文,但也是用户的历史点击项目列表的上下文。例如,如果在其孩子仍处于婴儿期的母亲的历史点击列表中存在婴儿产品和时尚服装,则婴儿产品可以排在时尚服装之前。请注意,尽管用户行为序列在其他推荐任务中已经得到了广泛的研究,例如用于匹配的顺序推荐[10,18]和用于排名的点击率(CTR)预测[4,25],但对于个性化重新排名仍然没有探索。为了解决这个问题,在这项工作中,我们提出了一个个性化的重新排名模型(称为PEAR)的基础上,一个新的上下文化的Transformer架构,其中包括三个主要部分:特征级交互,项目级交互,和多任务训练。更具体地说,我们的PEAR模型对现有的重新排名模型进行了以下我们对特征级和项目级交互进行建模,以结合排名和重新排名模型的优点。特征交互模块可以替代任何允许捕获特征交互的现有排名网络,例如MLP [8],DCN [20],AFN [7]。我们不仅利用现有研究所做的初始排名列表中的上下文信息,而且还通过合并序列到序列的交叉关注来捕获历史点击项目列表中的项目相互依赖性,这扩展了上下文范围,以提高重新排名中的个性化我们通过一个项目级的排名得分预测任务和一个列表级的分类任务来训练PEAR,为了评估PEAR的有效性,我们在微视频推荐的公共基准数据集[5]和华为新闻推荐的大规模生产数据集上进行了对比实验。 结果表明,PEAR优于现有的国家的最先进的方法。图1:PEAR的模型架构。2相关工作基于transformer的排名transformers在自然语言处理(NLP)中的巨大成功[11,14,19]引起了推荐领域的广泛关注。在开发任务中,具有序列结构的用户因此,许多研究[4,24-Zhou等人[26]引入了目标注意力机制,以根据用于排序的目标项自适应地为历史行为中的项嵌入分配重要性权重。为了更好地捕捉项目关系和序列模式下的历史行为序列,陈等。[4]应用Transformer编码器来学习历史行为的相反,我们的工作利用transformers进行重新排名。重新排名。 与独立计算每个项目得分的排名阶段不同,重新排名考虑了从排名模型生成的项目的相互影响,以改进它们的排序。已经进行了几项关于重新排序的开创性研究[28]和[1]利用RNN将项目级序列模式编码到特征空间中。然而,RNN在直接建模成对关系方面受到限制,特别是对于长序列。相比之下,PRM [16]引入了自注意机制来对初始排名列表中的项目间依赖关系进行建模,以进行重新排名。此外,[13]提出了一种基于图神经网络的模型来捕获项目关系。Qiu等人。[17]研究了使用数据增强来缓解重新排名中的不平衡问题与这些模型不同,我们的工作利用上下文转换器来整合历史行为进行重新排名。3方法在本节中,我们将描述PEAR模型架构,如图1所示。该框架主要包括三个部分:特征级交互、项目级交互和多任务训练。在下文中,我们将详细描述每个部分。···64,dh···∈·∈∈.联系我们、BPEAR:为推荐WWW'22 Companion使用情境化Transformer进行个性化重新排名3.1企业级互动具体来说,我们使用[19]中的自我注意力如下:如现有研究所示,原始特征的学习交互对于排名很重要[9,20]。为了融合特征(例如,性别,城市,类别)的每个用户项目对,我们提出了一个功能间-HB=Sof tmax. (WQ ZB)T(WK ZB)(WVZB)T、(二)动作模块,用于捕获复杂的特征交互,其中WQ,WK,WV∈Rdh×d是可学习的查询,键和值获得上下文化的项表示。近年来,已经提出了许多有效的特征交互网络,例如参数HB∈Rn×dh表示输出项representa-如DeepFM [9],DCN [20]和AFN [7],以捕获有用的功能交互。 虽然它通常适用于采用任何这些网络作为我们的功能交互模块,在这项工作中,我们使用一个两层MLP简单。通常,用户特征和项目特征都包括多字段分类值(例如,城市字段包含北京/上海/)。通常应用嵌入图层将这些高度稀疏的分类要素映射到密集的要素嵌入(如详细信息所示在[27]中)。之后,我们可以获得一个扁平化的特征向量,每个用户(fu∈Rdu)和项(fi∈Rdi),其中du和di表示历史项目列表中的选项然后,应用合并的交叉注意力层来同时对初始排名列表内和跨两个列表的项目交互进行为此,一种直接的方法是相应地应用自注意子层和交叉注意子层,如[19]中的Transformer解码器所做的那样。 但是我们进一步将两个子层合并在一起,以提高GPU的计算效率。更具体地,给定HB和ZS作为输入,合并的交叉关注被公式化如下:. (WqZS)T [Wk 1HT,Wk 2ZS]扁平尺寸。为了获得融合的用户项表示,我们首先将用户特征向量与每个项目特征进行HS=Sof tmaxBDH[Wv1HT,Wv2ZS]T历史项目列表B中的向量=[b1,b2,...,[b]和初始排序列表S =[s1,s2,...,sm],生成表示(三)其中Wq,Wk2,Wv2∈Rdh×d和Wk1,Wv1∈Rdh×dh都是矩阵X∈R(du+di)×(n+m).然后,我们将X馈送到一个两层MLP中:Z=W2σ(W1X+b1)+b2,(1)其中W1、W2、b1、b2是学习的内核和偏置权重。σ表示激活函数(例如,ReLU)。ZRd×(n+m)输出d维的融合表示值得注意的是,我们的功能交互模块(即,2层MLP)与变压器中的前馈网络(FFN)类似[19]。此外,为了方便后续的列表级任务,我们添加了一个特殊的分类-阳离子令牌(即,CLS),在初始排名列表的末尾的Rd中具有可学习的参数它是由伯特[11]的启发,是有用的,可学习的参数。[]表示连接操作。通过这种方式,我们使用单个合并的交叉注意层来模拟捕获ZS内以及ZS和HB之间的项目交互。我们的PEAR模型包括一个功能级交互模型,ule和项目级交互模块,分别对应于vanilla transformer中的FFN和多头自注意层[19]。因此,我们将PEAR视为一个上下文化的Transformer。3.3多任务训练输出HS经过一层MLP,然后是sigmoid聚合整个初始排名列表的列表级表示。最后,我们得到ZBRd×n和ZSRd×(m+1)分别作为历史项目列表和初始排名列表(具有CLS令牌)的输出3.2项目级交互一些先驱研究工作[1,2,16,28]已经对项目对之间的相互影响进行 虽然它们引入了不同的网络结构(例如,RNNs,self-attention)进行项目关系建模,它们都只考虑了初始排名列表的上下文,很大程度上忽略了历史点击项目列表的潜在影响。然而,历史用户兴趣包含丰富且细粒度的用户兴趣,这些兴趣对于重新排名中的上下文化项目建模同样重要点击预测的激活值得注意的是,softmax损失因为在初始排名列表中可能存在多个肯定,使得地面真实概率的总和大于1,所以不能很好地工作。相反,我们使用二进制交叉熵损失将任务建模为多标签学习问题,其定义为:Lm=.ytlo<$(yt)+(1−yt)lo<$(1−yt)<$(4)其中yt0, 1表示用户是否点击了目标项。yt是目标项的预测点击概率考虑到上述损失仅考虑每一单项单独地,我们引入了一个辅助任务,它是一个列表级任务,用于预测每个初始列表中的点击次数为了简单起见,在这项工作中,我们还将其公式化为具有以下损失的二元分类在这项工作中,我们采用了流行的编码器-解码器结构[19],该结构已广泛应用于NLP以捕获项目,L辅助= ..yaux lo<$(yaux)+(1−yaux )lo<$(1−yaux(5)不仅在初始排名列表和历史项目列表内,而且在两个列表之间进行如图1所示,项目级交互模块由N个块的堆栈组成,每个块包括自关注层和合并的交叉关注层。为了提高效率,我们在实验中设置N=1首先,自我注意层被用来对用户在历史行为中的细粒度兴趣进行建模,这可以为跨列表的学习项目交互提供更多信息的上下文。65L其中,y_aux表示初始排名列表是否包含优先级项。是来自CLS令牌的预定概率。最后,我们将这两个损失函数组合为多任务学习:L=Lm+αLaux(6)其中α是用于调整aux的效果的超参数。通常,我们设置α=1。66WWW4实验4.1实验设置4.1.1数据集描述。 现有的作品进行Web搜索数据集的实验[1,15,16,21]。然而,这些数据集不包含我们工作所需的用户历史行为。因此,我们在实验中使用了另外两个真实世界的数据集MicroVideo-1.7M:这是从中国流行的微视频推荐系统收集的百万级数据集,其中有10,986名用户在1,704,880微视频[5] 我们遵循现有的训练测试数据分割。News-Dataset:私有数据集包含三小时的点击日志,从华为的生产新闻记录系统中随机抽样它由180万用户和37K新闻之间的17,203,522次交互组成4.1.2评价 我们对30个项目进行重新排序,并使用以下常用指标评估重新排序性能[1,26],包括nDCG@K和gAUC@K,其中K=20,30。4.1.3初始排名和基线。为了生成重新排名模型的初始排名列表,我们选择了DCN,这是一种在行业中取得巨大成功的我们将我们提出的PEAR与几个基线重新排名模型进行比较,包括DLCM [1],PRM [16]和SetRank [15]。4.1.4实施细节。我们使用Tensorflow进行模型实现,并应用Adam [12]优化器。历史行为的最大长度设置为128。 用于特征级交互的MLP的大小为[500,500]。我们将退出率设置为0.1,MicroVideo-1.7M的批量大小为200,News-Dataset的批量大小为400我们从{1 e-3,1 e-4,5e-5,1 e-5}调整学习率对于MicroVideo-1.7M和News-Dataset,磁头数量分别设置为1和 2隐藏维数dh是500。我们应用早期停止(patience =2)来避免训练过程中的过拟合。我们还对基线模型进行了彻底的调整,以获得合理的结果。4.2性能比较我们的基线和PEAR的整体性能如表1所示。 对于每个数据集,我们报告了一个排名模型DCN,三个重新排名sota基线和PEAR的结果。最好的表现用粗体突出显示。结果表明,在所有情况下,PEAR始终优于公共数据集和行业数据集的所有基线。具体而言,在MicroVideo-1.7M和Huawei-Dataset中,它在gAUC@30方面分别比最强基线提高了1.07%和1.71%。对于nDCG,MicroVideo-1.7M上报告的基线的最高nDCG@20为0.5579。 而我们的PRM可以达到0.5640,实现了1.09%的改善。这验证了我们的架构的有效性,在重新排名的情况下,历史行为建模。这要归功于初始列表和历史列表之间的依赖关系的建模。 这种序列之间的显式建模可以挖掘出历史行为中的信息,这些信息直接指导初始列表的重新排序。值得注意的是,不将历史行为视为建模序列的PRM是最具竞争力的基线。一个可能的原因是PRM从其从历史行为生成的个性化向量中受益图2:历史记录长度对MicroVideo的影响这一信息不用于其他基线。然而,由于它处理历史行为的方式,PRM带来的改进是有限的。此外,注意到SetRank在基线模型中表现最差,这可能是由于SetRank采用的注意力等级损失不适合推荐任务。4.3消融研究辅 助 任 务 的 效 果 : 为 了 证 明 辅 助 任 务 的 效 率 , 我 们 在MicroVideo-1.7M数据集上比较了我们的模型在没有和有辅助任务的情况下的性能 结果示于表2中。 根据结果,当移除辅助任务时,nDCG@30从0.5741下降到0.5672。 这验证了列表的全局监督信号的效果。历史项目列表长度的影响:图2显示了每个在MicroVideo-1.7M数据集上对具有不同历史长度的PEAR进行了比较由于篇幅限制,选择gAUC@30和nDCG@30的结果显然,随着历史序列长度的增加,我们的模型的性能也在逐渐提高。当历史序列的长度从64改变到128时,性能改善最显著。这证明了历史行为序列信号在重新排序阶段的有效性因此,上述消融表明PEAR中的每个组件都能有效地细化初始排名列表的顺序5结论在本文中,我们专注于个性化的重新排名与上下文化的Transformer模型,即PEAR。与现有的重排序模型相比(ii)捕获初始排名列表内以及跨历史点击项目列表的上下文信息,以及(iii)应用多任务学习以利用列表级分类任务来增强PEAR的训练。在华为的公众微视频推荐数据集和生产新闻推荐数据集上进行了大量实验,验证了PEAR模型的有效性未来的工作可能包括提高模型效率,更好地考虑长尾用户(其历史项目列表太短)的情况··67PEAR:为推荐WWW'22 Companion使用情境化Transformer进行个性化重新排名表1:PEAR与其他重新排序方法的性能比较。模型MicroVideo-1.7M新闻-数据集gAUC@20gAUC@30nDCG@20nDCG@30gAUC@20gAUC@30nDCG@20nDCG@30DCN(基础)0.53420.54050.53490.65850.60140.60970.25570.2601DLCM0.56040.56650.55710.67110.60400.61150.25640.2608SetRank0.54830.55370.54450.66200.60170.60990.25550.2602PRM0.56290.56800.55790.67140.60590.61250.25720.2616梨0.56810.57410.56400.67550.61720.62300.25990.2641表2:多任务训练对MicroVideo-1.7M的影响型号gAUC@20 gAUC@30 nDCG@20 nDCG@30w/o辅助任务0.56060.56720.56260.6747带辅助任务致谢本工作得到了国家自然科学基金(61972219)、深圳研发计划(JCYJ 20190813174403598,SGDX 20190918101201-696)、国家重点研发计划(2018YFB1800601)、清华深圳国际研究生院海外科研合作基金(HW2021013)。引用[1] Qingyao Ai,Keping Bi,Jiafeng Guo,and W Bruce Croft.2018年学习深度列表上下文模型以进行排名细化。 第41届国际ACMSIGIR&信息检索研究发展会议。135-144。[2] Irwan Bello,Sayali Kulkarni,Sagar Jain,Craig Boutilier,Ed Chi,EladEban,Xiyang Luo, Alan Mackey, and Ofer Meshi. 2018. Seq2slate: 使 用rnns进行重新排名和优化。arXiv预印本arXiv:1810.02019(2018)。[3] 曹哲,秦涛,刘铁岩,蔡明峰,李航。2007.学习排序:从成对法到列表法。第24届机器学习国际会议论文集。129比136[4] Qiwei Chen ,Huan Zhao, Wei Li ,Pipei Huang,and Wenwu Ou.2019年。 行为序列Transformer在阿里巴巴电子商务推荐中的应用。第一届高维稀疏数据深度学习实践国际研讨会论文集。一比四[5] Xusong Chen , Dong Liu , Zheng-Jun Zha , Wengang Zhou , ZhiweiXiong,and Yan李2018年基于类别级和项目级时间层次注意力的微视频点击预测。第26届ACM多媒体国际会议论文集。1146-1153年。[6] Heng-Tze Cheng,Levent Koc,Jeremiah Harmsen,Tal Shaked,TusharChandra,Hrishi Aradhye,Glen Anderson,Greg Corrado,Wei Chai,Mustafa Ispir,et al. 2016.推荐系统的广泛深度学习在第一届推荐系统深度学习研讨会上。七比十[7] Weiyu Cheng,Yanyan Shen,Linpeng Huang.2020年。自适应因子分解网络:学习自适应顺序特征交互。第34届AAAI人工智能会议(AAAI)3609-3616[8] 保罗·卡温顿,杰伊·亚当斯,埃姆雷·萨金。2016.用于youtube推荐的深度神经网络。第10届ACM推荐系统。191-198.[9] Huifeng Guo,Ruiming Tang,Yunming Ye,Zhengguo Li,and XiuqiangHe.2017年。DeepFM:一种基于因子分解机器的神经网络,用于CTR预测。arXiv预印本arXiv:1703.04247(2017)。[10] 作者:J.麦考利2018年自我注意顺序推荐。IEEEInternational Conference onData Mining(ICDM)197-206.[11] Jacob Devlin Ming-Wei Chang Chung和Lee Kristina Toutanova。2019. BERT:Deep Bidirectional Transformers for Language Understanding的 预训 练。 在NAACL-HLT的会议记录中。4171-4186[12] Diederik P Kingma和Jimmy Ba。2014年。Adam:一种随机优化方法arXiv预印本arXiv:1412.6980(2014)。[13] Weiwen Liu,Qing Liu,Ruiming Tang,Junyang Chen,Xiuqiang He,andPheng Ann Heng.2020年。电子商务中具有项目关系的个性化重排序。 第29届ACM信息&知识管理国际会议论文集。925-934[14] Yinhan Liu,Myle Ott,Naman Goyal,Jingfei Du ,Mandar Joshi,DanqiChen,OmerLevy,Mike Lewis,Luke Zettlemoyer,and Veselin Stoyanov.2019年。Roberta:一种鲁棒优化的bert预训练方法。arXiv预印本arXiv:1907.11692(2019年)。[15] 庞亮,徐俊,艾青瑶,蓝艳艳,程雪琪,温继荣。2020. Setrank:学习一个用于信息检索的置换不变排名模型第43届国际ACM SIGIR信息检索研究与开发会议论文集。499-508[16] 裴昌华,张毅,张永丰,孙飞,小林,孙含笑,建Wu,Peng Jiang,Junfeng Ge,Wenwu Ou,et al.2019年。个性化的重新排名推荐。第13届ACM推荐系统会议论文集。三比十一[17] Qiu Zi-Hao,Ying-Chun Jian,Qing-Guo Chen,and Lijun Zhang.2021年学习为重新排序模型增加不平衡数据在第30届ACM信息与知识管理国际会议( CIKM ) 的会议记录中 , Gianluca Demartini,Guido Zuccon,J.ShaneCulpepper,Zi Huang,and Hanghang Tong.1478-1487年。[18] 孙飞、刘军、吴健、裴昌华、小林、欧文武、江鹏。2019. BERT4Rec:来自Transformer的双向编码器表示的顺序推荐。第28届ACM信息与知识管理国际会议(CIKM)1441-1450年。[19] Ashish Vaswani , Noam Shazeer , Niki Parmar , Jakob Uszkoreit , LlionJones,Aidan N Gomez,Kukasz Kaiser和Illia Polosukhin。2017.注意力就是你所需要的。神经信息处理系统的进展。5998-6008[20] 王若曦,傅斌,傅刚,王明亮2017年。用于广告点击预测的深度交叉网络在ADKDD'17的会议记录中一比七[21] Yunjia Xi,Weiwen Liu,Xinyi Dai,Ruiming Tang,Weinan Zhang,QingLiu,Xiuqiang He,and Yong Yu.2021年基于效用最大化的上下文感知重排序推荐。CoRRabs/2110.09059(2021)。[22] Fen Xia,Tie-Yan Liu,Jue Wang,Wensheng Zhang,and Hang Li.2008年学习排名的列表方法:理论与算法。第25届机器学习国际会议论文集。1192-1199。[23] Dawei Yin,Yuening Hu,Jiliang Tang,Tim Daly,Mianwei Zhou,HuaOuyang , Jianhui Chen , Changsung Kang , Hongbo Deng , ChikashiNobata,et al. 2016.雅虎搜索中的排名相关性第22届ACM SIGKDD知识发现与数据挖掘国际会议论文集。323-332.[24] Chang Zhou,Jinze Bai,Junshuai Song ,Xiaofei Liu,Zhengchao Zhao,Xiusi Chen,还有高俊2018年Atrank:一个基于注意力的用户行为建模框架。在AAAI人工智能会议上,卷。32岁[25] Guorui Zhou,Na Mou,Ying Fan,Qi Pi,Weijie Bian,Chang Zhou,Xiaoqiang Zhu,and Kun Gai.2019年。深度兴趣进化网络用于点击率预测。在AAAI人工智能会议上,卷。三十三5941-5948.[26] GuoruiZhou,Xiaoqiang Zhu,Chenru Song,Ying Fan,Han Zhu,XiaoMa,Yanghui Yan,Junqi Jin,Han Li,and Kun Gai. 2018年用于点击率预测的深度兴趣网络 第24届ACM SIGKDD知识发现&数据挖掘国际会议论文集。1059-1068.[27] Jieming Zhu,Jinyang Liu,Shuai Yang,Qi Zhang,and Xiuqiang He.2021年开放点击率预测的基准 第30届ACM信息与知识管理国际会议(CIKM)2759-2769。[28] 庄涛,欧文武,王志荣。2018.在电子商务搜索中全局优化的相互影响感知排名第27届国际人工智能联合会议论文集。3725-3731
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- C++标准程序库:权威指南
- Java解惑:奇数判断误区与改进方法
- C++编程必读:20种设计模式详解与实战
- LM3S8962微控制器数据手册
- 51单片机C语言实战教程:从入门到精通
- Spring3.0权威指南:JavaEE6实战
- Win32多线程程序设计详解
- Lucene2.9.1开发全攻略:从环境配置到索引创建
- 内存虚拟硬盘技术:提升电脑速度的秘密武器
- Java操作数据库:保存与显示图片到数据库及页面
- ISO14001:2004环境管理体系要求详解
- ShopExV4.8二次开发详解
- 企业形象与产品推广一站式网站建设技术方案揭秘
- Shopex二次开发:触发器与控制器重定向技术详解
- FPGA开发实战指南:创新设计与进阶技巧
- ShopExV4.8二次开发入门:解决升级问题与功能扩展
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功