没有合适的资源?快使用搜索试试~ 我知道了~
沙特国王大学学报基于类别感知Siamese卷积神经网络特征的Arif Rahmana,b,Edi Winarkoa,Khabib Mustofaaa印度尼西亚日惹Gadjah Mada大学数学和自然科学系计算机科学和电子学系b印度尼西亚日惹Ahmad Dahlan大学应用科学和技术学院信息系统系阿提奇莱因福奥文章历史记录:2021年11月1日收到2022年3月3日修订2022年3月4日接受2022年4月16日网上发售关键词:产品检索分类感知卷积网络A B S T R A C T在客户到商店的设置中的产品图像检索使用相似性学习,而不是预定义的距离,以解决跨域匹配问题。相似性学习可以使用具有成对或三重图像采样的连体卷积网络(SCN)模型来完成模型训练使用产品项目标签作为目标,而不考虑产品类别。然而,电子商店中的图像本质上具有从类别到单个图像的层次结构.因此,为了提高图像特征的区分度,需要引入类别信息.为了适应这一点,我们提出了一个SCN模型,在训练中涉及类别和项目标签,以产生类别感知功能。我们的模型是基于SCN的修改,在训练过程中,同时学习类别和项目标签。我们的类别感知Siamese CNN是使用MobileNet作为中间特征学习器的骨干和单层网络来实现的。实验结果表明,该方法可以提高基于SCN特征的产品图像检索的准确率版权所有©2022作者。由爱思唯尔公司出版代表沙特国王大学这是一个开放的访问CC BY许可下的文章(http://creativecommons.org/licenses/by/4.0/)。1. 介绍当在网上商店搜索产品时,可以输入文本作为关键字。然而,基于文本的搜索有一个缺点,它不能描述产品的视觉感知。产品图像检索(PIR)使用图像而不是文本作为查询,以获得视觉上相似的结果。提取作为图像的视觉表示的特征,并将其与数据库中的其他特征进行比较得到相似的图像。通常,图像的特征是对象的颜色、纹理或形状。卷积神经网络(CNN)特征近年来也被广泛使用,因为它们在大规模对象检测和图像分类中实现了高精度(Zheng等人,2018年)。从CNN模型的特定层提取的基于CNN的用户捕获图像作为从不受控制的环境(如街道或其他户外场所)检索产品的查询。*通讯作者。电 子 邮 件 地 址 : mail.ugm.ac.id ( A.Rahman ) , ewinarko@ugm. ac.id ( E.Winarko)。沙特国王大学负责同行审查相比之下,来自商店的产品图像是在受控环境中拍摄的,例如在产生更好的图像质量和光线条件的照相馆中。这种情况可能导致不准确的匹配结果。来自同一对象的图片可以被不同地识别,因为来自两个图像的特征的距离是显著的(Zhan等人,2017年)。相似性学习不是使用预定义的距离函数,而是使用从图像学习的距离来解决这些图像匹配问题。相似性学习可以被认为是两类的监督学习,相似(积极)和不相似(消极)。学习的目标是得到一个相似度函数,将相似的图像拉近,并将不相似的图像作为输入。图像相似性学习涉及图像对或三元组。对于每个相似或不相似的图像对,成对学习试图最小化相似对的距离并最大化不相似对的距离(Hadsell等人,2006年)。通过此设置,分别学习正对距离和负对距离。在三元组相似性学习中引入锚点作为阳性和阴性图像的参考点(Hoffer和Ailon,2015)。因此,三元组学习同时最小化正锚距离和最大化负锚距离。在成对和三重学习设置中,正对来自同一类的图像,而负对来自不同类的图像。这些设置通常用于https://doi.org/10.1016/j.jksuci.2022.03.0051319-1578/©2022作者。由Elsevier B.V.代表沙特国王大学出版。这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)。制作和主办:Elsevier可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.comA. 拉赫曼,E.Winarko和K.穆斯托法沙特国王大学学报2681人重新识别任务,其中类指的是人,并且每个类具有人的图像的变化(Wu等人,2019年)。而电子商务商店中的产品图像是分层结构的,由顶层(超类)的产品类别和较低层(类)的产品项组成。然而,在成对和三重学习设置中,类内验证任务,类别标签较少被考虑。当我们通过图像搜索产品时,我们可以得到如图所示的顶部结果图像。 1,从左到右排列。理想情况下,如果用户搜索自行车产品,与查询最相似的自行车产品将顺序出现在顶部结果中。与查询不同的项目中的自行车图片在图中排名最后。 1(一)、后产品项目从不同的类别,即风扇和水壶。在图1(b)中,来自查询的不同项目中的自行车具有比来自相同项目的自行车更高的排名自行车类别中的所有项目都出现在其他类别的项目直观地说,图中的查询结果。1(b)比图1(b)在视觉上更容易接受。 1(a). 然而,据我们所知,研究产品图像的相似性学习的客户到商店设置与暹罗网络使用的项目标签在学习过程中,没有利用使用产品类别标签。基于上述条件,我们提出了一种基于图像相似性学习方法的产品图像检索方法我们的研究的贡献是双重的:(i)我们提出了一个相似性学习模型,使用暹罗网络涉及的产品类别在训练中产生的类别感知功能,以提高检索精度;(ii)我们还提出了一个基于类别的相关性评分技术,客观地排名层次结构的产品图像。本文的其余部分组织如下。在第2节中,我们回顾了使用配对和三元组学习进行产品检索的相关工作。关于特征提取、索引和匹配的方法的细节在第3节中给出。实验结果与讨论在第4节中给出。在第5节中,我们总结了本文。2. 相关作品图像表示是图像检索过程中的一个关键步骤。该步骤从给定图像中提取基本特征,然后将其转换为特征向量。主要有三提取特征的类别:常规特征、分类CNN特征和检索CNN特征(Li等人, 2021年)。常规特征是指未使用CNN方法提取的特征。它们被抽象地设计为从图像的颜色、形状、纹理或关键点中提取特征。近年来,基于CNN的图像检索引起了研究人员的兴趣,由于传统的特征表示能力的限制与变化的图像,以及CNN的成功,在大规模的图像分类。在分类CNN特征时,首先针对图像分类任务训练CNN模型以获得特征。然后,通过去除其分类层来修改模型。将输入图像输入到修改后的模型中以提取特征(Tzelepi和Tetas,2018)。除了使用预先训练的深度网络进行分类任务之外,CNN特征提取还可以以端到端的方式使用直接针对实例检索任务训练的深度网络(Gordo等人,2017年)。在这种情况下,执行深度度量学习以增加特征的类内区分,并获得更细粒度的实例级图像表示。深度度量学习旨在学习嵌入空间,其中相似样本的嵌入向量被拉得更近,而不相似的样本被推开。检索CNN特征是从这个经过训练的深度网络中提取的。分类CNN特征已被应用于产品图像检索研究。该特征是从针对产品类别标签分类训练的CNN模型中提取的。在(Sharma和Karnick,2016)中,VGG- 19(Simonyan和Zisserman,2015)的最后一个完全连接的隐藏层被用作表示给定视觉图像的特征。或者,(Madulid和Mayol,2019)使用最后一个分类层Inception V3模型之前的层的特征(Szegedy等人,2016年)。 使用相同的模型(Elleuch等人,2020)在将其用于布料图像分类之前首先执行迁移学习。这些研究是在店内图像设置和较少考虑的图像从客户域进行。检索CNN特征应用于适应产品图像检索中的跨域设置,(Jiang等人,2018)使用Sia- mese网络学习视觉搜索的嵌入。他们使用基于Inception-BN网络(Ioffe和Szegedy,2015)的Inception-6网络来学习相似性嵌入。 作为对比损失的修正,提出了鲁棒对比损失。在新的损失函数中,Fig. 1.不同排名的自行车图像产品检索的示例结果。图像取自斯坦福在线产品数据集(Song等人, 2016年)。A. 拉赫曼,E.Winarko和K.穆斯托法沙特国王大学学报2682XN1j负对的惩罚较少,而具有大特征距离的正对的惩罚受到约束。在(Sharma和Vishvakarma,2019)中提出了一种改进的暹罗网络架构。他们应用了一种名为RankNet的多尺度CNN,它在各种尺度下引入了不同程度的不变性,以获得电子商务图像的高精度嵌入。除了成对学习以获得相似嵌入之外,BN(FCn)中最后一个全连接层或分类器层的节点BN使用具有产品类别标签YCat监督的平方铰链损失LH训练,如等式1所示,其中I、C和N是输入图像、类别总数和总样本。从BN中FC之前的层FCn-1提取中间特征(Xp 1,Xp 2,Xn 1,Xn 2)和(Xa,Xp,Xn)。(Dodds等人, 2018)用三胞胎连体NC进行三胞胎学习网络和三重损失函数(Schroff等人,2015年)。修改三重抽样以提高准确性,使用特定产品类别的偏好抽样小批次。相比之下,(Gajic和Baldrich,2018)通过分离模型中的每个流来调整三元组网络以适应跨域设置。具体地,查询流不与其中提取相关和不相关图像的表示的数据库流共享权重。提出了一种不同的方法(Kahimi等人,2019年)。引入了反向任务,并在训练设置中同等对待这两个任务,而不是基于消费者实例检索相关商店图像。训练使用成对和三元组学习的模型基于乘积LH¼1XX最大x.0;m-BNiB N.Ij21跨域设置的中间特征学习使用SN。SN中输入层的节点数为特征向量的中间维数,输出层每个中间特征被馈送到SN以使用具有产品项目标签Y项目监督的验证任务来学习嵌入。这种学习是通过最小化对比度(LC)或三重态(LT)损失来执行的,如等式(1)所示。(2)Eq.(3)欧氏距离d。P商品标签而不是类别标签产品。不幸的是,普罗-电子商务商店中的商品固有地具有以下形式的分层结构:类别-项目-图像。因此,我们假设LC¼Xp1;Xp2ND.SN.Xp1-SN. Xp2晶体管为了提高特征的区分度,应引入类别特征近年来大规模对象类的层次化方法þðXXn1;Xn2Þ不最大值0;m-dSNXn1-SNXn22研究的重点是将深度特征提取网络L ¼X最大值0;dSNX-SNX-dSNX-SNXm和分层树分类器。(Ahmed等人,2016)使用包含卷积层优化的整体类的网络作为主网络。然后,在给定的深度处,主网络被拆分不Xa;Xp;Xn阿帕阿nð3Þ分成多个分支,并将每个分支训练为专家,以分离不容易分离的类。主网络向所有专家提供具有共同特点的共同知识在(Kim和Frahm,2018)中提出了一种不同的方法。图像基于高级外观特征而不是它们的类成员资格进行分组,然后提交每组的专家模型。此外,一个交替的架构与全局有序和全局无序表示被用来组织场景。而不是使用专家网络,(张等人,2021)提出了一个更简单的结构。基于分类引导路径的两层树分类器取代了传统深度卷积神经网络结构中的扁平softmax分类器。该结构在训练过程中考虑了组内视觉相似性。此外,相同级别内的视觉上相似的图像可以具有更高的机会彼此区分。3. 方法我们提出了一种相似性学习方法,使用连体和三元组网络架构,同时学习的类别和产品项目标签。为了获得图像特征,我们设计了两两和三重采样的模型和训练过程。然后进行检索过程,并评估结果的准确性。3.1. 模型架构该模型由骨干网络(BN)和单层神经网络(SN)组成。BN是作为特征提取器的CNN模型,SN用于特征学习。图2描绘了基于(a)连体网络和(b)三重网络的模型。(Xp1,Xp2)和(Xn 1,Xn 2)是来自所有正P和负N对的集合的对。(Xa,Xp,Xn)是来自所有三元组T的集合的三元组,并且m是损失值的裕度。嵌入E然后使用l2范数归一化以形成图像特征F=E/||二、||2.3.2. 培训在训练之前对输入图像进行预处理。使用RGB值的z分数对图像进行归一化,以确保像素值在特定范围内并减少偏斜。通过随机位置的固定大小裁剪和随机水平翻转将数据增强应用于图像,以使模型对图像位置变化更具鲁棒性。对于成对和三元组数据的采样,我们使用小批量数据和欧氏距离d的在线采样使用成对边缘采样的配对选择(Hadsell等人, 2006),其在指定的余量M内分离正和负。对于三联体采样,我们使用所有三联体,简单三联体t简单,困难三联体t困难(Xuan等人, 2020)和半硬三重态t semi(Schroff等人, 2015年)。t容易=(Xa,Xp,Xn)j d(Xa,Xp)+ m 2 e 2 fq2k i ^r2kj;i2jQj@InShop数据集上检索结果的NDCG分数。模型采样64128256512K = 510510510510S对0.4540.4510.4490.4470.4340.4370.4570.455T-all0.4410.4520.4500.4590.4590.4670.4550.464T-easy0.2450.2630.2870.3040.3160.3330.3300.347T半0.4100.4260.4170.4310.4090.4260.4220.438T-hard0.4300.4430.4430.4520.4360.4460.4570.463MobleNetV3SC对0.4500.4870.4700.5010.4770.5130.4750.506TC-全部0.4610.5070.4730.5130.4730.5170.4750.513TC-easy0.3360.3640.3590.3890.3750.4050.3840.414TC半导体0.4580.5050.4660.5090.4620.5090.4650.507TC-hard0.4630.5080.4700.5080.4720.5140.4730.512S对0.4420.4470.4470.4500.4450.4470.4340.438T-all0.4170.4350.4240.4420.4290.4450.4330.451T-easy0.2230.2400.2640.2820.2900.3080.3060.324T半0.3590.3810.3540.3790.3600.3850.3660.390T-hard0.3640.3800.3630.3780.3910.4050.3680.386ResNet18SC对0.4350.4670.4480.4810.4600.4910.4610.495TC-全部0.4520.4990.4570.5040.4630.5080.4630.510TC-easy0.3640.4010.3780.4130.3880.4250.3960.432TC半导体0.4520.5030.4510.5010.4590.5080.4600.509TC-hard0.4460.4900.4580.5010.4620.5050.4610.504查询图像q的单标签语义相似性距离D和检索结果r基于如图1所示的分层树结构。 四、我们将树限制为三个级别,这涉及产品的数据结构,即,类别、项目和图像。每个节点表示树级别中的数据位置,而边值e和f表示节点之间的距离。D(q,r)是分层距离树中从q到r的最短路径,并且可以被简化为等式2。(七)、8>0q;r2piHood Graph and Tree(NGT)(Iwasaki and Miyazaki,2018),一个基于图的索引库。4.3. 评价使用来自测试分割部分中的所有图像的查询对两个数据集的检索结果使用两个度量进行评估,并且对于两者而言,更高的值意味着更好的性能。首先,P@k(k处的精度),其中k是k个最高结果,可以写为等式2。(九)、Dq;r2c q2pi^r2pj;i:ð7ÞP kPq2Qhitq;k9其中K是所有产品类别,P是所有产品项目,pi,pj2P,ki,kj, K.当q和r在不同的范畴中时,对D(q,r)给予惩罚,因此f>e.我们将D(q,r)归一化为[0,1],因此max(D(q,r))= 2e + 2f =1。我们基于图像特征的距离来定义相关性分数R,如等式(1)中所定义的(八)、由于D被归一化为[0,1],因此R也具有相同的范围值,其中1是最相关的,0是最不相关的。Rd;q1-Dq;r84. 实验4.1. 数据集使用从具有细粒度类别的电子商务在线产品获取的标记的产品图像数 据 集 进 行 实 验 , 即 , 斯坦 福 在 线 产 品 ( SOP ) ( Song 等 人,2016)、ConsumerTosShop和InShop DeepFashion(Liu等人,2016年)。SOP包括12个类别、22,634个项目和120,053个图像的家庭产品图像。InShop包含23个类别,7,982个项目和52,712个图像的服装图像。ConsumerToShop包含23个类别,33,881个项目和239,557个图像的服装图像。4.2. 实验装置CNN模型训练是在支持GPU的机器上进行的,时间为100个epoch,小批量大小为96。训练由Adam优化,学习率设置为10- 3。特征索引和k-NN搜索是使用Neighbor-Q是查询的总数,如果至少一个图像与查询图像q相同的类出现在返回的前k个排序列表中,否则命中(q,k)= 0。其次,评估基于归一化贴现累积增益(NDCG),这是一种信息检索技术增益的评估指标(Järvelin和Kekäläinen,2002)。在NDCG中,图五. MobileNetV3和ResNet18模型的特征维度与InShop和SOP数据集中的NDCG评¼A. 拉赫曼,E.Winarko和K.穆斯托法沙特国王大学学报表26862686分。A. 拉赫曼,E.Winarko和K.穆斯托法沙特国王大学学报2687p/PNDCGi¼1logg2i1jREL jp雷岛表3与现有方法的准确性比较没有方法ConsumerToShop InShopP@1P@5P@20P@50P@1P@5P@20P@501(Kiapour等人,(2015年)0.0240.0350.0630.0870.3470.4240.5060.5412(Huang等人,(2015年))0.0360.0630.1110.1520.3810.5470.6750.7163(Liu等人,( 2016年)0.0730.1210.1880.2260.5320.6780.7640.8004(Gajic和Baldrich,2018)–0.2500.450–––––5MSC-对-5120.6060.6510.7060.7470.4680.6420.7900.8566MTC-all-5120.5590.5990.6560.7020.4350.6130.7770.8527MTC-easy-5120.5970.6370.6910.7300.2380.3690.5230.6208MTC-semi-5120.5530.5940.6510.6980.3920.5720.7460.8299MTC-hard-5120.5550.5930.6450.6860.4400.6150.7720.847相关文件应予以识别并排在第一位进行展示。评估技术计算用户(十)、一般来说,两个数据集的结果证实,对于所有的配对和三重采样,使用我们的方法提取的特征比基线获得更高的准确性。5.2.精度比较Pp雷岛ð10Þ我们比较了我们的方法与现有的1/1log2i1InShop和ConsumerToShop数据集上的方法表3显示其中,re_i是第i个图像文档的相关性分数,|RE L|P是在图像文档中按相关性排序的直到位置P的文档的列表。使用我们的技术确定的文档相关性得分,如第3.4节所述我们使用e= 0.125和f= 0.375,这是2e+2f在(2e +2f= 1)^(f-e> 0)条件下的极值^(e> 0)^(f> 0).5. 结果我们提出的结果检索的所有图像的测试分裂的数据集。使用64,128,256和512维特征和不同的采样方法进行检索。我们将我们的方法在Siamese(SC)和Triplet(TC)中与基本Siamese(S)和Triplet(T)网络作为基线进行比较,采样方法:对边缘采样(对),所有三胞胎(所有),简单三胞胎(简单),半硬三胞胎(半)和硬三胞胎(硬)。5.1. 检索性能我们使用表1和表1中的NDCG@k分数呈现SOP和Inshop数据集上的检索准确性,其中最高分数由粗体字表示(参见表2)。我们使用两个CNN模型MobileNetV3和ResNet18(He等人,2016),以了解模型架构与检索准确性的相关性。MobileNet使用深度卷积来减少参数的数量,它对每个输入通道应用单个卷积滤波器,而ResNet使用残差模块,这是一个跳过连接块,它参考层输入来学习残差函数,而不是学习未引用的函数。从结果中可以看出,从MobileNetV3架构的骨干网络中提取的特征在两个数据集中的准确性往往高于ResNet18。实验使用不同的特征向量维度。目的是探讨特征尺寸大小对精度的影响。 我们在图中绘制了所有模型和采样技术的特征维度和最高准确度(表示为NDCG@10得分)的图。 五、图中的每个点代表相应特征维度的最高NDCG@10得分,无论采用何种采样方法。该图显示,在两个数据集中,特征dim与检索准确度几乎呈线性相关这意味着更高的特征尺寸,即,512-在本实验中,获得了最高的精度。我们的方法使用MobileNetV3(M)作为骨干网络和512维特征向量的所有采样技术的比较Siamese和Triplet网络被设计用于在现有方法中实现的跨域设置中进行学习。我们的方法旨在使用类别感知功能来改进这些模型。检索结果证实了这一点。在跨域检索的数据集ConsumerToShop中,该方法在所有k值上都比其他方法具有更高的准确率。6. 结论我们已经使用CNN的类别感知功能进行了产品图像检索,其中MobileNetV3和ResNet18模型作为骨干,单层网络作为特征学习器。我们的方法训练模型同时学习产品的类别和项目标签以产生特征。在所有数据集上的结果表明,对于所有的成对和三重采样,使用我们的方法提取的特征得到更高的NDCG得分比基本的暹罗和三重网络模型。我们还发现,Mobi-leNetV 3骨干网络往往比ResNet 18获得更高的准确率,特征维数与准确率呈线性相关。在跨域设置数据集上,该方法得到了比现有方法更好的精度。竞争利益作者声明,他们没有已知的竞争性财务利益或个人关系,可能会影响本文报告的工作。引用Ahmed,K.,Baig,M.H.,托雷萨尼湖,加-地2016年。大规模图像分类专家网络计算 机 科 学 讲 义 ( 包 括 人 工 智 能 和 生 物 信 息 学 讲 义 的 子 系 列 ) 9911 LNCS ,516arXiv:1604.06119。Dodds,E.,阮氏,H.,Herdade,S.,Culpepper,J.,Kae,A.,Garrigues,P.,2018.学习嵌入产品视觉搜索与三重损失和在线采样arXiv:1810.04652.Elleuch,M.,Mezghani,A.,Khemakhem,M.,Kherallah,M.,2020.使用基于迁移学习的深度CNN架构的服装分类,在:智能系统和计算的进展。 第1179卷AISC,pp. 240Gajic,B.,巴尔德里奇河,2018.跨领域时尚图像检索,在:2018年IEEE/ CVF计算机视觉和模式识别研讨会(CVPRW),IEEE。pp. 1950-19502年。A. 拉赫曼,E.Winarko和K.穆斯托法沙特国王大学学报2688戈多,A.,Almazán,J.,Revaud,J.,Larlus,D.,2017.用于图像检索的深度视觉表示的端到端学习。国际计算机 目视 124(2),237- 254。哈德塞尔河,Chopra,S.,Y.莱昆,2006.通过学习一个不变映射来减少抽象性。Proc.IEEE计算机学会会议计算机视觉模式识别2,1735-1742。他,K.,张,X.,Ren,S.,孙,J.,2016.用于图像识别的深度残差学习。2016年IEEE计算机视觉与模式识别会议(CVPR),770Hoffer,E.,Ailon,N.,2015年。使用三重网络的深度度量学习计算机科学讲义(包括人工智能和生物信息学讲义的子系列)9370,84-92。a r X i v :1412.6622。黄,J.,弗里斯河,陈昆,Yan,S.,2015.基于双属性感知排名网络的跨域图像检索。Proceedings of the IEEE International Conference on Computer Vision 2015 Inter,1062Sahhimi,S.,van Noord,N.,Geradts,Z.,担心,M,2019.深度度量学习用于跨领域时尚实例检索。在:2019年IEEE/CVF计算机视觉研讨会国 际 会 议 (ICCVW),IEEE,pp。 3165- 3168Ioffe,S.,塞格迪角,澳-地2015年。批量标准化:通过减少内部协变量偏移来加速深度网络448-56. arXiv:1502.03167。岩崎,M. ,Miyazaki,D.,2018.基于k-近邻图的高维数据邻近搜索索引优化。arXiv,1- 12arXiv:1810.07355。Järvelin,K.,Kekäläinen,J.,2002.基于累积增益的IR技术评估。ACM Trans.INF. 系统20(4),422-446。蒋永国,Li,M.,王,X.,刘伟,Hua,X.S.,2018年DeepProduct. ACM Trans.多媒体计算Commun.应用14,1-18。Kiapour,M.H.,汉,X.,Lazebnik,S.,伯格,AC,Berg,T.L.,2015.在哪里购买:在网上商店匹配街头服装照片。在:在:IEEE计算机视觉国际会议论文集,pp。3343-3351。金,H. J.,Frahm,J.M.,2018.用于场景识别的交替专家的层次结构。计算机科学讲义(包括人工智能和生物信息学讲义子系列)11215 LNCS,471Li,X.,杨杰,妈,杰,2021.基于内容的图像检索(CBIR)的最新进展.神经计算452,675-689。刘志,Luo,P.,(1975 - 1980),中国科学院院士,Qiu,S.,王,X.,唐,X.,2016.DeepFashion:用丰富的注释为胸围服装识别和检索提供动力。在:2016年IEEE计算机视觉和模式识别会议(CVPR),IEEE,pp。 1096-1104.Madulid,J.P.A.,梅约体育馆2019.使用卷积神经网络初始模型的服装分类,在:2019年第二届国际会议论文集信息科学与系统会议,ACM,纽约,美国。pp. 3-7.拉达河,Mili,H.,Bicknell,E.,Bennner,M.,1989.语义网度量的发展与应用。IEEE Trans.系统,我是曼·赛伯恩19,17-30。Schroff,F.,卡列尼琴科,D.,Philbin,J.,2015. FaceNet:用于人脸识别和聚类的统一 嵌 入 。 IEEE 计 算 机 协 会 计 算 机 视 觉 和 模 式 识 别 会 议 论 文 集 , 07-12-June ,815arXiv:arXiv:1503.03832v3.夏尔马河,巴西-地Vishvakarma,A.,2019. Retrieving Similar E-Commerce ImagesUsing Deep Learning,1夏尔马,V.,Karnick,H.,2016.基于视觉特征的电子商务产品自动标注与检索。在:NAACL学生研究研讨会的会议记录,页。 22比28西蒙尼扬,K.,齐瑟曼,A.,2015.用于大规模图像识别的非常深的卷积网络,在:国际学习表示会议,ICLR。arXiv:1409.1556。宋,H. O.,Xiang,Y.,中国科学院,Jegelka,S.,Savarese,S.,2016年。DeepMetricLearningviaLiftedStructuredFeatureEmbedding , 2016IEEEConference on Computer Vision and Pattern Recognition(CVPR),IEEE。pp.4004-12 arXiv:1511.06452。塞格迪角,澳-地范霍克,V.,Ioffe,S.,施伦斯,J.,Wojna,Z.,2016.重新思考计算机视觉的Inception架构。IEEE计算机协会计算机视觉和模式识别会议论文集2016-Decem,2818-26。arXiv:1512.00567。Tzelepi,M.,特法斯,A.,2018.深度卷积学习用于基于内容的图像检索。神经计算275,2467-2478。吴,D.,Zheng,S.J.,Zhang,X.P.,Yuan,C.A.,郑芳,赵玉,Lin,Y.J.,Zhao,Z.Q.,Jiang,Y.L.,Huang,D.S.,2019.基于深度学习的人员重新识别方法:全面综述。神 经 计算337,354-371。Xia,Z.,Feng,X.,中国科学院,林,J.,Hadid,A.,2017.使用成对多标签监督的深度卷积散列用于大规模视觉搜索。信号处理:图像通信59,109-116。Xuan,H.,Stylianou,A.,普利斯河,2020.改进的嵌入与简单的正三元组挖掘。2020年IEEE计算机视觉应用冬季会议(WACV)IEEE,pp.2463- 2471Zhan,H.,施,B.,科特,A.C.,2017.基于语义层次属性分类网络的跨域鞋检索。IEEE传输图像处理。26(12),5867-5881。张洪,他,G.,Li,F.,Xia,Z.,刘,B.,彭,J,2021.植物分类学引导路径树分类器用于大规模植物物种识别。 J. Electron. 影像学30,1-17。郑湖,Yang,Y.I.,Tian,Q.I.,2018. SIFT Meets CNN:实例检索的十年调查。IEEETrans.模式肛门。马赫内特尔 40(5),1224-1244。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM动力电池数据管理系统源码及数据库详解
- R语言桑基图绘制与SCI图输入文件代码分析
- Linux下Sakagari Hurricane翻译工作:cpktools的使用教程
- prettybench: 让 Go 基准测试结果更易读
- Python官方文档查询库,提升开发效率与时间节约
- 基于Django的Python就业系统毕设源码
- 高并发下的SpringBoot与Nginx+Redis会话共享解决方案
- 构建问答游戏:Node.js与Express.js实战教程
- MATLAB在旅行商问题中的应用与优化方法研究
- OMAPL138 DSP平台UPP接口编程实践
- 杰克逊维尔非营利地基工程的VMS项目介绍
- 宠物猫企业网站模板PHP源码下载
- 52简易计算器源码解析与下载指南
- 探索Node.js v6.2.1 - 事件驱动的高性能Web服务器环境
- 找回WinSCP密码的神器:winscppasswd工具介绍
- xctools:解析Xcode命令行工具输出的Ruby库
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功