没有合适的资源?快使用搜索试试~ 我知道了~
亚马逊搜索过滤器排名的多标签分类及语言结构对分类性能的影响
121使用可识别标签嵌入的搜索过滤器排名JacekGolebiowskijacekgo@amazon.com亚马逊搜索德国齐亚瓦施·阿贝德詹ziawasch@amazon.com亚马逊搜索,汉诺威莱布尼茨大学,L3S研究中心德国摘要在主要的电子商务平台上进行搜索会返回多达数千种相关产品,这使得普通客户无法审核所有结果。可以使用针对特定要求的搜索过滤器(例如,鞋子的尺寸不对)。可用过滤器的完整列表通常是压倒性的,很难可视化。因此,成功的用户界面希望仅显示与客户查询相关的用户界面。在这项工作中,我们框架的过滤器选择任务作为一个极端的多标签分类(XMLC)的基础上的历史互动与电子商务网站的问题。我们从客户的点击和购买中了解过滤器的哪个子集与他们的查询最相关,将相关/不相关信号视为二进制标签。具有大量类的分类设置中的常见问题是某些类代表性不足。这些稀有的猫科动物很难预测.在以前的工作的基础上,我们表明,罕见的类的分类性能可以提高占类标签的语言结构。此外,我们的研究结果表明,在类别名称中包含语言结构容量更高的CCS概念• 信息检索→排名;搜索过滤器;·神经网络→联合输入输出嵌入。关键词信息检索,排名,搜索过滤器两位作者都对本研究做出了同等的贡献。†在亚马逊搜索时完成的工作在亚马逊搜索时完成的工作本作品在知识共享下许可署名-非商业性使用-禁止演绎国际4.0许可协议。WWW©2022版权归所有者/作者所有。ACM ISBN978-1-4503-9130-6/22/04。https://doi.org/10.1145/3487553.3524218FeliceAntonioMerraFelice. poliba.itPolitecnico diBari意大利菲利克斯·比斯曼biessman@amazon.com柏林应用科技大学爱因斯坦中心数字未来德国ACM参考格式:Jacek Golebiowski,Felice Antonio Merra,Ziawasch Abedjan,andFelix Biessmann. 2022 年 搜 索 过 滤 器 排 名 与 隐 私 意 识 标 签 Em-beddings。在网络会议2022(WWW '22同伴)的同伴程序,2022年4月25日至29日,虚拟活动,里昂,法国。ACM,美国纽约州纽约市,5页。https://doi.org/10.1145/3487553.35242181引言电子商务商店中的标准搜索,例如,亚马逊或eBay返回数千种产品,使客户很难找到他们可能喜欢的产品可以通过用于基于特定属性值限制项目集合的搜索过滤器来促进产品发现,例如,指定颜色的T恤或指定尺寸的电视然而,大多数在线零售商店中可用的过滤器的大集合不可能由客户导航,使得有必要识别每个查询的最相关过滤器的较小子集。找到最相关的标签子集,即,搜索过滤器,给定文本输入,即,搜索查询是一个常见的问题,可以被视为推荐[15]或多标签分类任务。最近的工作表明,优化分类目标可以产生高度准确的模型[8],这种方法是这项工作的重点。大多数具有许多标签的排名和分类数据集,例如在这项工作中考虑的数据集,在标签频率上表现出幂律分布标签作为唯一标识符(ID)的稀疏表示可能会使学习和了解不常见的目标变得具有挑战性了解尾部标签的一个常见策略是整合与它们相关的边信息。这种技术已被证明可以实现大规模分类器的高精度[8]。这样的辅助信息通常在工业数据集中可用,其中分类目标对应于真实世界的项目(这里是搜索过滤器)。 开放数据集还包含相应的描述,例如,Wiki系列数据集[30],Amazon系列[14]和EuroLex [13]包括包含语义信息的标签名称。然而,传统的基于文档的XMLC模型将标签视为原子符号,忽略了额外的信息。虽然文献中的一些方法利用标签名称进行数据预处理[7]或处理拼写错误的分类字符串标签[6],但标签中的信息很少用作文本分类模型中的第一类输入。受现实世界电子商务平台中的这些观察的启发,我们专注于通过利用可提取的信号来提高XMLC模型在不频繁标签上的性能。WWWJacek Golebiowski、Felice Antonio Merra、Ziawasch Abedjan和FelixBiessmann122∈×∈||×Q ×F →标签的文本描述。我们的贡献总结如下:(i)我们在从大型电子商务平台收集的查询到搜索过滤器数据集上对七个最先进的(SOTA)XMLC模型和一个标签推荐系统进行了实验分析;(ii)我们评估了使用标签名称的不同神经架构的准确性。我们验证了测试模型的性能在几个评价指标,以评估其准确性不频繁的标签 , 并分 析其 缺 点 ; 最 后( iii ) 我 们提 出了 识 别标 签 嵌入(LALE),允许集成的语言结构的类别名称到学习目标。2相关工作预测一个查询的过滤器的相关性可以形式化为一个排名或极端的多标签分类任务。在第一种解释中,标签推荐系统(TRS)为每个输入构建标签的排名列表一个标准的方法,如WSABIE[22]实现了一个基于因子分解的推荐器,具有WARP损失。多年来 , 各 种 模 型 通 过 整 合 神 经 模 型 提 取 的 特 征 来 扩 展WSABIE[11,28,28],进一步提高准确性。在XMLC公式中,目标是直接预测过滤器/标签给出查询的概率。XMLC中使用的模型主要有三类:基于嵌入、基于树和深度学习。基于嵌入的模型使用因子分解方法来学习查询标签嵌入之间的相似性AnneXML [21]是该类的SOTA模型之一。它们并非没有限制,例如,SLEEC [4]在推荐长尾标签时表现出困难,因为无法将百万大小的标签投射到微小的潜在空间中。基于树的模型在标签中学习层次树结构,将相似的标签分组在一起。 标准模型是:FastXML [18],它通过基于nDCG的排名损失函数进行优化,PfastreXML [18],它改进了FastXML整合倾向评分损失,以促进对不常见但有回报的尾部标签的预测,以及Parabel [17],它递归地将标签划分为两个平衡组。基于深度学习的模型,从输入文档中提取密集的文本表示[1,29],由XML-CNN [12]领导。随后,AttentionXML [26](在XBERT [5]之后)被开发出来,通过Bi-LSTM模型和Attention机制来捕获文本的顺序信息APLC- XLNet [25]扩展了XLNet [24],构建了一个自适应概率标签树,通过利用不平衡的标签分布来近似交叉熵损失,以形 成 显 式 减 少 计 算 时 间 的 集 群 。 最 近 , 已 经 提 出 了 X-Transformer [7],其在标签集群上微调BERT模型,并训练线性排名模型以将标签推荐到标签集群中。这项工作一直在继续,最终形成了PECOS模型[27]。最后,GILE-一种文本分类模型,它集成了标签文本特征,其思想是联合输入标签文本嵌入克服了不可见或长尾标签的泛化限制[16]。3方法出于电子商务的情况下,我们提出了一套模型来排名搜索过滤器为给定的用户查询。设q∈Q为查询在查询集合Q中,并且设f F是可用过滤器集合F我们将查询过滤(Q2F)任务定义为多分类问题,q∈ Q,fq′=arg max<$(q,f)f∈F其中,fq′是在键入查询q时建议的过滤器,并且<$:R是必须最大化的效用函数,当键入q时选择推荐的过滤器为此,我们研究了四种不同的函数公式,包括LALE模型。我们首先介绍客户查询和搜索过滤器的表示,然后讨论如何组合这些信号以获得查询过滤器分数。查询表示我们建议的第一个组件是查询编码器。输入嵌入模块通过子字查找表将输入子字令牌列表转换为列表表示,然后是单个Bi-LSTM层和全连接层,以获得查询的向量表示。具体地说,我们将每个查询建模为从32k维子词单元字典中提取的S个子词令牌序列子字通过应用于训练集和标签名称中的查询的字节对编码[ 19 ]找到。每个子字被编码为可学习的G维向量,使得查询编码为SG矩阵。每个子字编码的查询都作为BiLSTM层网络的输入来学习潜在表示;该网络使用偏置项和双曲正切函数作为激活。我们只使用网络的最终输出(来自两个方向BiLSTM的最终状态的级联)来计算给定的最终嵌入。作为固定大小的特征向量qRH. BiLSTM输出q为:通过具有relu激活的全连接层,以获得E维查询表示q。通过测试具有相同数量的参数w.r.t.的基于BiLSTM、基于CNN和基于BOW的编码器来选择架构。验证集上的精密度@1。过滤器表示。建筑的第二个主要元素-结构是过滤器(标签)编码器。我们设计了一个编码器,考虑两种类型的标签信息:原子过滤器标识符和过滤器的文本描述(标签名称)。过滤器名称嵌入与处理查询相同的架构(子字查找,Bi-LSTM和全连接层),过滤器ID使用简单的查找表嵌入,每个唯一ID一两个嵌入模型(查询文本和过滤文本)共享子词查找表,但不共享任何其他参数。在下面的部分中,我们将参考过滤器将嵌入命名为f为了嵌入ID,集合F中的每个滤波器f被嵌入为Z维向量并且被表示为f_id。嵌入取自嵌入的F Z矩阵,其中第i行对应于具有ID= i的滤波器的嵌入,并且Z是需要等于E的超参数。基线。基于所提出的架构,我们构建了三个基线分类器的变体:组合的、纯文本和纯ID基线,其中分别使用文本和ID、纯文本和仅ID嵌入过滤器;下面描述三个选项。两种不同类型的过滤器表示允许我们构建∀使用可识别标签嵌入的搜索过滤器排名WWW123~~~~~()·~.Σ◦联系我们三个不同的嵌入表示为f:如果只有ID,则为必填项表1:准确度结果,最佳值以粗体显示。型号ndcg@1ndcg@3ndcg@5p@3p@5f=不,tanh .We′·concat.fid,ft +B如果是纯文本如果配合(一)第二类0.3064 0.2246盆景0.4017 0.4416 0.4555 0.2207 0.1506附件XML其中,We'是在组合场景中使用的全连接层的矩阵嵌入,以将基于id的嵌入查询嵌入q,B是偏置项。给定查询嵌入q和标签嵌入f,我们用q,f-潜在表示s<$q,f=q<$f之间的点积来测量推荐(分类)得分<$(q,f)=s<$q,f。拉莱。我们提出了一种可感知的标签嵌入(LALE)建筑,灵感来自GILE模型[16]。LALE通过使用逐元素乘法产生每个过滤器f ′的联合ID-文本表示来集成标签的文本和唯一(基于ID)表示。 一旦计算出过滤器表示,查询-过滤器亲和度得分<$(q,f)= s <$q,f可以通过如前所述在q <$q和f′之间取点积来找到。形式上,标签相关性得分被给出为查询和每个过滤器的嵌入之间的相似性,如s_q, r 其中,fid、ft和q如前所定义,并且是逐元素乘法。 我们假设这种公式允许模型基于文本(类似于具有类似名称的过滤器)和每个唯一标签的ID依赖扰动来学习每个过滤器的基本表示。更重要的是,这种组合所有三个输入信号的方法强制将所有表示联合嵌入到公共空间中。这个公式也可以改写为sq,f=2019年12月31日星期一快速XML 0.5147 0.6103 0.6556 0.3106 0.22882016年12月31日2010年12月31日电话:+86-021 - 8888888传真:+86-021 - 8888888电话:+86-0515 - 8888888传真:+86-0515 - 88888882007年12月31日综合0.5201 0.6096 0.6559 0.3155 0.2344LALE(我们的)2014年12月31 日0.2357连接重复项中的所有活动过滤器出现在我们数据集中的标签分布遵循幂律,最常见的标签比不常见的标签更常见。为了解决这两个标签机制,我们将标签分为两组:最流行的200个标签,占所有标签出现的87%,被称为头部过滤器,其余的1400个标签被表示为尾部标签。评价我们将我们的解决方案与XMLC和TRS进行具有经典准确性度量的基准模型,即,精度和归一化的折扣累 积 增 益 ( nDCG ) ; 我 们 不 显 示 精 度 @1 , 因 为 它 等 于ndcg@1。结果见表1,是随机初始化的十次运行的平均值;除非另有说明,否则数值相差超过一个标准差。我们遵循常规评估-准确性指标:不同标签类别(头部和尾部)的F1分数氟虫病·其中标签和查询的文本表示在类别之间具有相等的权重,以及搜索过滤器(标签)覆盖率(曾经被预测为相关的标签的使用逐元素乘法组合,输出为使用内积与过滤器ID嵌入相结合以获得分类分数。 在此视图中,过滤器ID嵌入Df 可以被认为是一个完全连接层的权重,cessingqvod. 这种解释类似于[ 16 ]中提出的最终致密层的全局参数向量。但是,我们为每个标签使用一组唯一的参数来编码必要的特定于过滤器的信息。模型训练为了学习所提出的模型的参数,我们基于通过sigmoid函数传递的模型输出来优化逐点二进制交叉熵我们使用Adam[10]算法进行优化。4实验数据集。 我们在一个真实世界的数据集上进行实验,该数据集是从一个大型电子商务网站的日志中抽取的,其中包含搜索查询(作为输入)、所选搜索过滤器的ID(作为标签)以及这些搜索过滤器的名称(作为标签名称)。该数据集不包括关于执行搜索的用户的任何个人识别信息。该数据集包含1,573,137次搜索,603,217个唯一搜索关键字和1600个唯一标签。它被分为训练集、验证集和测试集,比例为8:1:1,三个数据集之间没有重复查询。我们通过合并重复的查询来处理基准模型我们使用选定的最先进的分类和排名模型来基准我们提出的方法。康-Cretely , Parabel [17] , Bonsai [9] , AnneXML [21] ,PfastreXML [18],FastXML [18],APLC-XLNet [25](表示为APLC)和GILE[16]模型作为XMLC基线和TagSpace [23]方法用于与排名进行比较。第2节讨论了用于基准测试的所有方法。在培训中所述的拟议基线时,第3节,我们使用G=256维子字嵌入,H=256维Bi-LSTM网络,然后是E=256维全连接层。标签ID和文本嵌入使用F=256输出的全连接层进行组合标签ID嵌入依赖于Z =256维向量。使用基于网格的HPO在验证数据集上找到模型的超参数,优化精度@1,并限制参数总数。4.1 结果和讨论表1将建议的模型套件与最具代表性的基线以及SOTA XMLC和TRS模型进行了比较。受XMLC评估协议的启发,我们专注于简短的前K列表(即K 1,3,5)。除了top-k精度之外,我们应该注 意 到 , 所 呈 现 的 模 型 具 有 不 同 数 量 的 可 训 练 参 数 :PfastreXML、FastXML和APLC使用大约350 MM,这是因为WWWJacek Golebiowski、Felice Antonio Merra、Ziawasch Abedjan和FelixBiessmann124对于大型Transformer网络,Gile使用12 MM,TagSpace使用10MM,包括LALE在内的所有四种拟议模型都使用14 MM参数。我们看到,使用标签ID及其名称进行嵌入的模型(提出的混合模型和组合基线方法)优于其他提出的基线方法,包括那些依赖于具有显著更大模型容量的Transformer网络的方法。例如,LALE(0.5232)和Combined(0.5201)的nDCG@1都高于FastXML的相同度量值(0.5147)。这一结果强调了在标签名称中使用语言结构以较低计算成本实现更高预测性能的潜力,这是语言模型容量不断增加的重要因素[2,20]。更重要的是,我们已经发现,LALE架构优于模型,使用完整的标签电平信号(组合基线)以及其他基准,同时依赖于更少的参数。我们假设,强制执行联合输入标签ID标签描述嵌入导致一个表示,这是很容易处理的分类从而提高了精度。我们可以观察到,即使是仅ID基线也可以稍微超过在nDCG@1上的Transformer架构上构建的更大的网络我们认为这是出于两个原因:(1)我们数据集中的输入是搜索查询,这些搜索查询比用于预训练Transformer架构的文档要短得多,(2)用于Transformer预训练的术语与搜索查询中的术语不同最后一个发现显示了训练针对特定问题优化的较小模型的好处,而不是大规模的预训练网络。表2:超精度我们的测试型号CoverageF 1 HeadF 1 Tail仅ID基线0.208 0.302 0.096纯文本基线合并基线0.223 0.318 0.0990.302 0.338 0.125表2列出了标签覆盖率以及头部和尾部过滤器的二进制F1评分(详情请参见第4节)。结果表明,包含搜索过滤器的文本描述允许模型更好地概括代表性不足的尾部标签,并更频繁地推荐它们(高覆盖率)和更准确地推荐它们(高尾F1)。例如,纯文本和LALE模型在对应于电动工具(电动工具功能、瓦数和电线类型)的三个类似尾部过滤器上具有更高的F1,指示关于这些标签的信息被共享。这一发现在纯文本基线时尤为突出,因为记住最受欢迎的标签ID更加困难。在这种情况下,尾部标签的覆盖率和性能都显著高于能够访问标签ID的对应方。有趣的是,尾部标签上的组合基线的性能与仅ID基线非常相似。我们假设,二进制损失函数更强调学习常见的标签,因为它们出现在更多的例子和标签标识符提供了一个更好的信号查询头标签映射和压倒学习过程。 我们的研究结果表明,所提出的方法(LALE)提高了模型的性能,为不频繁的标签,而不牺牲头部的准确性,表明新的体系结构不受这种限制,并促进了标签描述的使用。5结论在这项工作中,我们调查模型,以找到最相关的搜索过滤器的客户查询。为了最大限度地提高预测的准确性,我们提出了一个新的模型,该模型利用搜索过滤器的辅助信息(标签名称)来帮助学习和了解不太常见的尾部标签。 我们表明,这种方法使计算效 率 高 , 小 的神 经 网 络 , 以 实 现 更 好 的性 能 比 高 容 量 的Transformer网络。所呈现的模型的参数比上一代transformer(BERT)少大约20倍,从而能够部署到低内存架构(边缘ML),并可能降低能耗[3]。依赖于可训练标签信息嵌入的方法的潜在批评是高计算成本,因为每个小批量需要每个标签的嵌入。然而,这个问题可以通过依赖简单的标签嵌入模型(如这里所做的)或对每个示例的负标签进行子采样来缓解。前者的例子是大多数大规模多标签线性分类器的基石[4,17],这种方法可以用来帮助加速深度学习模型。引用[1] Rohit Babbar和Bernhard Schölkopf2017年。DiSMEC-用于极端多标签分类的分布式稀疏机器WSDM 2017-第10届ACM Web搜索和数据挖掘国际会议论文集。计算机协会,公司,721-729。https://doi.org/10.1145/3018661.3018741arXiv:1609.02521[2] 艾 米 丽 ·M Bender , Timnit Gebru , Angelina McMillan-Major , andShmargaret Shmitterns. 2021年随机鹦鹉的危险:语言模型可以太大吗?在FAccT '21:2021ACM公平,问责制和透明度会议上,虚拟活动/加拿大多伦多,2021年 3月 3日 至 10日 , Madeleine Clare Elish, William Isaac和 Richard S. Zemel(Eds.).ACM,610https://doi.org/10.1145/3442188.3445922[3] 艾 米 丽 ·M Bender , Timnit Gebru , Angelina McMillan-Major , andShmargaret Shmitterns. 2021年随 机 鹦鹉的危险:语言模型可以太大吗?2021年ACM公平,问责制和透明度会议(虚拟活动,加拿大)(FAccT计算机协会,纽约,纽约,美国,610-623。https://doi.org/10.1145/3442188。 3445922[4] Kush Bhatia、Himanshu Jain、Purushottam Kar、Manik Varma和PrateekJain。2015. 用于极端多标签分类的稀疏局部嵌入 在神经信息处理系统的进展,卷。2015年-Janua。七三零七三八[5] Daniel Cer,Yinfei Yang,Sheng yi Kong,Nan Hua,Nicole Limtiaco,Rhomni St. John , Noah Constant , Mario Guajardo-Céspedes , SteveYuan , Chris Tar , Yun Hsuan Sung , Brian Strope , and Ray Kurzweil.2018.通用英语句子编码器。EMNLP 2018-自然语言处理经验方法会议:系统演示,会议记录。169-174。http://doi.org/10.18653/v1/d18-2029[6] Patricio Cerda,Gaël Varoquaux,and Balázs Kégl.2018年 使用脏分类变量学习的相似性编码。https://doi.org/10.1007/s10994-018-www.example.com[7] Wei Cheng Chang,Hsiang Fu Yu,Kai Zhong,Yiming Yang,and InderjitS. 狄 伦 2020. Taming Pretrained Transformers for Extreme Multi-label TextClassification.ACM SIGKDD International Conference on KnowledgeDiscovery and Data Mining(ACM SIGKDD知识发现与数据挖掘国际会议)计算机协会,3163-3171。https://doi.org/10.1145/3394486.3403368arXiv:1905.02331[8] Himanshu Jain,Yashoteja Prabhu和Manik Varma。2016.极端的多标签丢失功能 , 用 于 推 荐 , 标 记 , 排 名 其 他 缺 失 的 标 签 应 用 程 序 。 ACM SIGKDDInternational Conference on Knowledge Discovery and Data Mining ( ACMSIGKDD知识发现与数据挖掘国际会议)13-17-Augu. 计算机协会,美国纽约州纽约市,935https://doi.org/10.1145/2939672.2939756[9] 苏杰·坎达盖尔,韩萧,罗希特·巴巴尔。2020年。盆景:多样化和浅树的极端多 标 签 分 类 。机 器 学 习 109 , 11 ( 2020 年 4 月 ) , 2099-2119 。https://doi.org/10.1007/s10994-020-05888-2arXiv:1904.08249使用可识别标签嵌入的搜索过滤器排名WWW125[10] 迪德里克山口金玛和吉米·巴2017年。Adam:一种随机优化方法arXiv:1412.6980[cs.LG][11] Yuncheng Li,Yale Song,and Jiebo Luo.2017年。 改进多标签图像分类的成对排序。论文集- 第30届IEEE计算机视觉和模式识别会议,CVPR 2017,卷 。 2017 年 -Janua 。电 气 和 电 子 工 程 师 协 会 有 限 公 司 1837-1845.https://doi.org/10.1109/CVPR.2017的网站。199arXiv:1704.03135[12] 荆州刘,魏成昌,吴跃新,杨一鸣。2017.深度学习用于极端多标签文本分类。 SIGIR 2017-第40届国际ACM SIGIR信息检索研究与开发会议论文集。115-124. https://doi.org/10.1145/3077136.3080834[13] Eneldo Loza Mencía和Johannes Fürnkranz。2008年高效成对多标记法律领域的大规模问题的分类 在计算机科学讲义(包括子系列讲义在人工智 能 和 生 物 信 息 学 讲 义 ) , 卷 。 5212LNAI.50 比 65https://doi.org/10.1007/978-3-540-87481-2_4[14] Julian McAuley,Christopher Targett,Qinfeng Shi,and Anton Van DenHengel.2015. 基于图像的样式和替代品建议在SIGIR 2015第 38 届 国 际 ACM SIGIR 信 息 检 索 研 究 与 发 展 会 议 论 文 集 。 43 比 52https://doi.org/10.1145/2766462。 2767755arXiv:1506.04757[15] 巴斯卡·米特拉和尼克·克拉斯维尔2017年。信息检索的神经模型arXiv:1705.01509http://arxiv.org/abs/1705.01509[16] 尼古拉斯·帕帕斯和詹姆斯·亨德森。2018. GILE:一种用于文本分类的广义输入-标签嵌入. https://doi.org/10.1162/tacl_a_00259arXiv:1806.06219[17] Yashoteja Prabhu , Anil Kag , Shrutendra Harsola , Rahul Agrawal 和Manik Varma。2018. Parabel:用于极端分类的分区标签树,应用于动态搜 索 广 告 。 在 Web Conference 2018-Proceedings of the World Wide WebConference , WWW2018 中 。 计 算 机 协 会 , 公 司 ,993https://doi.org/10.1145/3178876.3185998[18] Yashoteja Prabhu和Manik Varma。2014年。FastXML:一个快速、准确、稳定的 树 分 类 器 ,用 于 极 端 的 多 标 签 学 习 。 ACM SIGKDD InternationalConference on Knowledge Discovery and Data Mining(ACM SIGKDD知识发现与数据挖掘国际会议)263-272。http://doi.org/10.1145/2623330.2623651[19] 瑞可·森里奇巴里·哈多和亚历山德拉·伯奇2016年。以子词为单位的生僻词的神经机器翻译在计算语言学协会第54届年会上,ACL 2016-Long Papers,Vol.3.计 算 语 言 学 协 会 ( ACL ) , 1715-1725 。 https://doi.org/10.18653/v1/p16-1162arXiv:1508.07909[20] 艾玛·斯特鲁贝尔,安娜雅·甘内什,安德鲁·麦卡勒姆.2019年。NLP中深度学习的能量和策略考虑。在计算语言学协会第57届会议的会议记录中,ACL2019,意大利佛罗伦萨,2019年7月28日至8月2日,第1卷:长论文,AnnaKorhonen,David R.Traum,and Lluís Màrquez(Eds.). 计算语言学协会,3645https://doi.org/10.18653/v1/p19-1355[21] 田上幸弘2017. AnnexML:近似最近邻搜索,用于极端多标签分类。ACMSIGKDD International Conference on Knowledge Discovery and Data Mining(ACM SIGKDD知识发现与数据挖掘国际会议)第F1296部分。 计算机协会 , 纽 约 , 纽 约 , 美 国 , 455-464 。https://doi.org/10 。1145/3097983.3097987[22] 杰森·韦斯顿,萨米·本吉奥,和尼古拉斯·科尼尔。2011. WSABIE:扩展到大 词 汇 图 像 注 释 。IJCAI 国 际 人 工 智 能 联 合 会 议 。 2764-2770.https://doi.org/10.5591/978-1-57735-516-8/IJCAI 11 -460[23] 杰森·韦斯顿,苏米特·乔普拉,基思·亚当斯。2014年。#TAGSPACE:从hashtags语义嵌入。 EMNLP 2014 - 2014自然语言处理经验方法会议,会议论 文 集 。 计 算 语 言 学 协 会 , Stroudsburg , PA , 美 国 , 1822-1827 。https://doi.org/10.3115/v1/d14-1194[24] ZhilinYang , Zihang Dai , Yiming Yang , Jaime Carbonell , RuslanSalakhutdinov,and Quoc V. 乐2019年。XLNet:用于语言理解的广义自回归预训练。http://arxiv.org/abs/1906.08237[25] Hui Ye,Zhiyu Chen,Da Han Wang,and Brian D.戴维森2020.基于自适应概 率 标 签 聚 类 的 预 训 练 广 义 自 回 归 模 型 的 极 端 多 标 签 文 本 分 类 。http://arxiv.org/abs/2007.02439[26] Ronghui You , Zihan Zhang , Ziye Wang , Suyang Dai , HiroshiMamitsuka,and Shanfeng Zhu. 2018年Attention xml:基于标签树的注意力感 知 深 度 模 型 , 用 于 高 性 能 极 端 多 标 签 文 本 分 类 。 arXiv :1811.01727http://arxiv.org/abs/1811.01727[27] Hsiang-Fu Yu,Kai Zhong,and Inderjit S.狄伦2020年。PECOS:预测巨大和相关的输出空间。arXiv:2010.05878[cs.LG][28] 张琦、王佳文、黄浩然、黄玄静、龚业云。2017年。基于共同注意力网络的多模态微博主题标签推荐国际人工智能联合会议(IJCAIAAAI Press,3420-3426. https://doi.org/10.24963/ijcai.2017/478[29] Shuai Zhang,Lina Yao,Aixin Sun,and Yi Tay.2019年。基于深度学习的推 荐 系 统 : 综 述 和 新 观 点 。 https://doi.org/10.1145/3285029arXiv :1707.07435[30] 阿凯兹·祖比亚加2012年。使用社交标签增强维基百科的导航(2012年)。arXiv:1202.5469http://www.flickr.comhttp://arxiv.org/abs/1202.5469
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 新代数控API接口实现CNC数据采集技术解析
- Java版Window任务管理器的设计与实现
- 响应式网页模板及前端源码合集:HTML、CSS、JS与H5
- 可爱贪吃蛇动画特效的Canvas实现教程
- 微信小程序婚礼邀请函教程
- SOCR UCLA WebGis修改:整合世界银行数据
- BUPT计网课程设计:实现具有中继转发功能的DNS服务器
- C# Winform记事本工具开发教程与功能介绍
- 移动端自适应H5网页模板与前端源码包
- Logadm日志管理工具:创建与删除日志条目的详细指南
- 双日记微信小程序开源项目-百度地图集成
- ThreeJS天空盒素材集锦 35+ 优质效果
- 百度地图Java源码深度解析:GoogleDapper中文翻译与应用
- Linux系统调查工具:BashScripts脚本集合
- Kubernetes v1.20 完整二进制安装指南与脚本
- 百度地图开发java源码-KSYMediaPlayerKit_Android库更新与使用说明
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功