外文书>人文>心理励志> User Modeling,WWW 2018,2018年4月23日至27日,法641U一DI∈A基于情感,(2)基于主题,(3)基于深度学习。我们的方法属于第二类。感情用事 这些作品分析用户对评论中项目的情感,以提高评级预测性能,例如[ 12,27,28,42 ]。例如,[27]估计每个评论的情感得分以构建用户-项目情感矩阵,然后应用传统的协同过滤方法Zhang等人[42]分析评论的情感极性,然后联合分解这些方法依赖于用于情感分析的外部NLP工具的性能,因此不是独立的。基于主题。这些方法从评论中提取潜在的主题或方面。这个方向的早期工作[14]依赖于领域知识来手动将评论标记为不同的方面,这需要昂贵的领域知识和高劳动力成本。后来,大多数作品试图从评论中自动提取潜在的主题或方面[2,12,17,23,26,26,31,36,39]。这些方法的一般方法是使用主题模型[23,26,31,32,39]或非负MF [2,29]从评论中提取潜在主题,并使用MF方法从评级中学习潜在因素HFT [26]和TopicMF [2]通过使用定义的变换函数将潜 在主题和潜在因素联系起来ITLFM [39]和RBLT [31]假设潜在主题和潜在因素处于同一空间中,并将它们线性组合以形成用户和项目的潜在表示,从而对MF中的评级进行建模CTR [32]假设项目的潜在因素取决于其文本的潜在主题分布,并在对评级建模时添加潜在变量以抵消项目的主题分布RMR [23]还使用评论的主题模型来学习项目Diao等人[12]提出了一种称为JMARS的集成图形模型,用于联合建模方面,评级和情感,以进行电影评级预测。这些模型都假设从评论中学习到的潜在主题和评级中的潜在因素之间存在一对一的映射虽然我们采用相同的策略来提取潜在主题和学习潜在因素,但我们的模型没有一对一映射的约束。此外,Zhang et al.[42]通过将用户-项目评级矩阵分解为项目-方面和用户-方面矩阵来提取方面。He等人[17]通过使用三方图对用户-项目-方面关系进行建模,从评论中提取潜在主题基于深度。最近,在建议[11,19]中出现了应用深度学习技术的趋势例如,He et al.将矩阵分解和因子分解机器推广到神经协作过滤,并取得了有前途的性能[18,19]。文本评论也被用于深度学习模型的推荐[6,40,41,43]。在这个方向上最相关的作品是DeepCoNN [43]和TransNet [6],它们将深度技术应用于评论以进行评级预测。在DeepCoNN中,评论首先由两个CNN处理,以学习用户Deep- CoNN的一个局限性是它在测试阶段使用评论。[6]表明,当在测试阶段评论不可用时,DeepCoNN的性能会大大降低。为了解决这个问题,TransNet [6]通过引入额外的层来模拟与目标用户-项目对对应的评论来扩展DeepCoNN所生成的评论然后用于评级预测。表1:符号及其定义符号定义具有评论和评级的语料 库Du,i评论用户u的文档到项目i s评论Du,i中U、I、用户集、项集和ASP集,尤其是M、N、用户数、项目数和方面数Nw,s一个句子中的单词数ATM中的K个潜在主题yATM中的指示符变量as将体a分配给句子sπu是伯努利分布P(y=0)的参数ηβ先验(η={η0,η1})体-主题分布的αu,αiDirichlet先验纵横分布的γu,γiDirichlet先验主题词分布的βwDirichlet先验θu,用户的方面主题分布:表示用户对ψ i的偏好,项目的方面主题分布:分别表示用户和项目的λ u,λ v方面分布上的项目特征主题-文本词分布fALFM中潜在因子的数量μ·r正则化系数b·偏差项,例如,bu,bi,b0w是方面a的权重向量pu,qi分别是用户u和项目i的潜在因素ru,i用户u对项目iru,i,用户u在方面a上对项目i的方面评级项目i的属性与用户u在方面a上的表现相匹配的程度3该模型3.1问题设置设是来自特定类别的项目集的评论的集合(例如,餐馆),并且每个评论都带有总体评级ru,i,以指示用户u对项目i的总体满意度。主要目标是预测用户尚未评论的项目的未知评级。评论du,i是描述用户u对项目i的不同方面a(诸如餐馆的食物)的意见的一段文本。在本文中,我们只考虑所有项目都来自同一类别的情况,即,它们共享相同的方面集合。用户关心项目的方面是潜在的,并且通过我们提出的主题模型从评论中学习,其中每个方面被表示为相同集合的分布(例如,K)的潜在主题。表1列出了关键符号。 在介绍我们的方法之前,我们首先要澄清方面、潜在主题和潜在因素的概念。方面-它是一个高级语义概念,表示用户在评论中评论的项目的属性,例如餐厅的“食物”和手机的“电池”。潜在主题&潜在因素-在我们的上下文中,这两个概念都表示比“方面”更细粒度的概念。潜在主题或因素可以被视为项目的子方面。例如,对于“食物”方面,相关的潜在主题可以是“breakfas t”或“意大利料理”。我们采用的术语是··首页>外文书>人文>心理励志> User Modeling,WWW 2018,2018年4月23日至27日,法642∈⊙⊙⊙⊙。zsxu∈∈哪里。∈A--。∈A--{|∈D∈U∈I}D主题模型中潜在主题和矩阵因子化中的潜在因子在此基础上,通过主题模型发现评论中的“潜在3.2面向方面的潜在因素模型基于以下观察:(1)不同的用户可能关心物品的不同方面,以及(2)用户总体评级r(u,i)取决于u对i(i,i)的每个部分的满意度。例如, 作为对ru,i,a的评价)和(i的)每个方面对u的重要性(即,方面重要性ρu,i,a)。基于这些假设,总体评级ru,i可以预测为:方面重要性二进制矩阵WRf×A,以将潜在因素与不同方面相关联,其中A是所考虑的方面的数量。我们称该模型为方面感知潜在因子模型(ALFM),其中W的第a列中的权重向量wa指示哪些因子与方面a相关。因此,表示用户在方面a中因此,(pu,a)T(qi,a)表示用户u对方面a上的项目i的方面评级。最后,我们整合方面的匹配结果(即,su,i,a)到ALFM中以估计方面评级:ru , i , a=su , i , a· ( wa⊙pu ) T ( wa⊙ qi )(3)作为高纵横比等级ru,i,a需要大的su,i,a和(wa ⊙ p u)值pu)T(waqi),预计学习结果 可以引导潜在因素的学习3.2.2方面重要性估计。我们依靠用户评论ru,i=a∈Aρu,i,aru,i,aaspxectzrasting(一)估计ρu,i,a,因为用户经常在评论中讨论他们感兴趣的方面的话题,例如食物方面的不同菜系。3.2.1方面评级估计。 方面等级(即,ru,i,a)反映用户u对方面a上的项目i的满意度。为了接收高方面评级ru,i,a,项目应当至少拥有用户在该方面感兴趣的特性/属性。此外,在这方面,项目应该满足用户对这些属性的期望。换句话说,物品在这方面的属性应该是高质量的,使得用户喜欢它。以“食物”方面为例,对于喜欢中国美食的用户,为了从用户获得对“食物”方面的高评价,餐馆应该提供中国菜肴,并且菜肴应该适合用户的口味。基于用户我们基于所提出的方面感知主题模型(ATM)的结果来计算S u,i,a(在Sect.3.3),其中用户的偏好和项目的特征在每个方面被建模为多项分布的潜在主题,分别表示为θ u,a和ψ i,a。su,i,a∈[0, 1]然后被计算为:s u,i,a=1−JSD(θu,a,ψi,a)(2)JSD(θu,a,ψi,a)表示θ u,a和ψ i,a之间的Jensen-Shannon散度[ 13 ]。注意,su,i,a的大值并不意味着高评级ru,i,a--提供用户所要求的所有特征的项目并不意味着它满足用户的期望,因为所提供的期望可能是低质量的。例如,餐馆提供用户u喜欢的所有中国菜肴(即,高分su,i,a),但是这些菜在u看来味道很差(i. 例如, 低额定值r u,i,a)。因此,我们可以期待这家餐厅:用户在评论中以负面意见讨论其中国菜,从而给出较低的评级。而不是通过使用外部NLP工具(如[42])分析评论情绪以进行方面评级估计,我们参考矩阵分解(MF)[21]技术。MF将用户和项目映射到潜在因素空间中,并且puRf×1和qiRf×1)。用户和项目向量的点积鲁鲁岛为了扩展MF用于方面评级预测,我们引入了一个一般来说,用户在评论中对某个方面的评论越多,这个方面(对这个用户)就越重要。因此,我们估计的重要性方面根据用户写评论评论的可能性在这个方面。在撰写评论时,一些用户倾向于根据自己的喜好从各个方面撰写评论,而另一些用户则喜欢评论目标项目的最显著特征。基于这种考虑,我们引入(1)πu来表示用户u基于他自己的偏好评论项目的概率,以及(2)λu,a(aλu,a=1),以表示用户u基于他自己的偏好对方面a进行评论的概率。相应地,(1 πu)表示用户从项目i的特征(a λ i,a = l)评论项目i的概率,并且λ i,a是用户u从项目i在方面a上的特征评论项目i的概率。因此,用户u在方面a上评论项目i的概率(即,ρu,i,a)为:ρu,i,a=πuλu,a+(1( 4)λu,a,λi,a和πu由ATM估计,ATM模拟用户撰写评论的过程,如下一小节所详述。3.3面向方面的主题模型给定一个语料库,其中包含用户对项d u,i d u,i ,u的评论得双曲余切值.,我们假设一组潜在主题(即,K个主题)涵盖了用户在评论中讨论的所有主题λu是用户u的方面a的概率分布,其中每个值λ u,a表示方面a对用户u的相对重要性。类似地,λi是项目i的特征中的方面的概率分布,其中每个值λ i,a表示方面a对项目i的重要性。由于K个潜在主题覆盖了评论中讨论的所有主题,因此方面将仅与一些潜在主题密切相关。 例如,主题“早餐”与方面“食物”密切相关,而它与像“服务”或“价格”的方面不相关。作为片段和主题的关系也由概率分布表示,即,θu,a表示用户,ψi,a表示项目。更详细地,用户u在特定方面a中的兴趣由θu,a表示,θ u,a是潜在主题的多项式分布;项i在特定方面a中的特征由ψi,a表示,ψ i,a也是同一组潜在主题的多项式分布。θu,a确定首页>外文书>人文>心理励志> User Modeling,WWW 2018,2018年4月23日至27日,法64311对于每个审查du,i,u∈U,i ∈Ido12对于每个句子s∈du,i做13141516171819DrawyBernolli(·|πu);如果y==0,则如果y=1,则绘制%s Multi(λu)然后画zs Multi(θu,as);对于每个单词w∈sdo绘制%s Multi(λi)然后画zs Multi(ψi,as);绘制wMulti(zs,w)}D{{|∈U}{|{I}。联系我们N||·|||| ·||或从项目要决定主题zs,请执行以下操作:·2p*,q*222我2主题模型的应用[7,8]。由于篇幅限制,我们一wa(w2+)算法一:ATM的产生过程1 对于每个主题k=1,…,Kdo2绘制k,w Dir(·|βw);3 对于每个用户u∈U做4绘制λu Dir(·|γu);5对于每个项目i∈Ido6画λiDir(·|γi);7对于每个用户u∈U,每个方面a ∈A做8画出θu,aDir(·|αu);9 对于每个项i∈I,每个ASP∈A都10画出ψi,aDir(·|αi);图1:ATM模型的图形表示基于用户u对项目的所有评论du,i,iψi,a是从用户写的所有评论du,iuofi中学习到的。潜在主题是评论中的文本词的多项分布基于这些假设,我们提出了一个方面感知的主题模型ATM,通过模拟语料库的生成来估计参数λi,λi,θu,a,ψi,a,πu。ATM的图示如图所示。1.一、在图中,阴影圆圈表示观察到的变量,而无阴影圆圈表示潜在变量。ATM模仿逐句写评论的过程。一个句子通常讨论同一个主题z,这可能来自用户bu,bi,b0),则总体评级可以被估计为2,ru,i=(ρu,i,a·su,i,a·(wa⊙pu)T(wa⊙qi))+bu+bi+b0(5)a∈A其中b0是平均评级,bu和bi分别是用户和项目偏差。参数的估计是为了最小化训练数据集中的评级预测误差优化目标函数为最小值1。(ru,i−ru,i)2+μu||2+ µi||2||q||2句子s,我们的模型引入了一个指示变量y0,1基于Bernoulli分布,其由πu参数化。u,i+µw 。||1+ µ b(||2个以上||2);||2+||bi||2);2(六)具体地说,当y=0时,句子由用户其他情况下,它是根据项目i的特征生成的特征πu是用户依赖性的,指示评论来自u的个人特性或来自项目i的特性的趋势由u的个人特性确定。在算法1中示出了ATM的生成过程。设s表示分配给句子s的体。If y = 0, as isdrawn from λu and zs is then generated from u’s preferences onaspect as : θu,as ; otherwise, if y = 1, as is drawn from λi and zs isthen generated from i’s characteristics on aspect as : ψi,as .然后根据词分布从z s生成句子s中的所有词w:zs,w.在ATM中,αu、αi、γu、γi、β和η是预定义的超参数,并且为了简单起见被设置为对称需要估计的参数包括λi、λi、θu、a、ψi、a和πu。不同的近似已经开发了用于参数估计的推理方法其中2表示用于防止模型过拟合的 2范数,1表示1范数。μu、μi、μw和μb是正则化参数,它们是可调的超参数。在实际应用中,我们利用范数放松了wa的二元性要求众所周知,l正则化产生权重的稀疏解[25]。pu和qi的2正则化防止它们具有任意大的值,这将导致wa的任意小的值。优化. 我们使用随机梯度下降(SGD)算法通过优化Eq.中的目标函数来学习参数6. 在SGD的每个步骤中,对评级ru,i执行局部优化。令L表示损失,并且参数的梯度如下给出:L=.(.ρu,i,asu,i,aw2)(ru,i−ru,i)qi+μupu在主题模型中,例如变异推理[5]和折叠吉布斯抽样[15]。我们应用折叠吉布斯抽样来推断参数-pu一i=1aM由于它已成功地应用于许多大型Lqi=.(.ρu,i,asu,i,aw2)(ru,i−ru,i)pu+μiqiu一本文省略了详细的推理步骤M NL=. 。ρu,i,asu,i,a(ru,i−ru,i)puqiwa+,µwwa3.4模型推断一根据ATM的结果,ρu,i,a和su,i,a可以用当量分别为4和2。考虑到偏置项(即,2在我们的实验中,我们试图归一化ρu,i,a或ρu,i,asu,i,a在等式5,但未观察到改善。,���×,,���×,=1u=1i= 1首页>外文书>人文>心理励志> User Modeling,WWW 2018,2018年4月23日至27日,法644一、||||表2:评价数据集统计数据集用户数项目数#评级稀疏性即时视频4,9021,68336,4860.9956汽车2,7881,83520,2180.9960婴儿17,1777,047158,3110.9987美容19,76612,100196,3250.9992手机24,65010,420189,2550.9993服装34,44723,026277,3240.9997数字音乐5,4263,56864,4750.9967杂货13,9798,711149,4340.9988健康34,85018,533342,2620.9995家庭厨房58,90128,231544,2390.9997乐器1,39790010,2160.9919办公产品4,7982,41952,6730.9955天井1,67296213,0770.9919宠物用品18,0708,508155,6920.9990户外运动31,17618,355293,3060.9995仪首页15,43810,214133,4140.9992玩具游戏17,69211,924166,1800.9992电子游戏22,34810,672228,1640.9990Yelp 2017169,25763,3001,659,6780.9998这里,我们省略了bu和bi的梯度,因为它们与标准偏置MF [21]中的相同M和N是数据集中用户和项目的总数注意在梯度的推导中对于wa,我们用w2+ε代替wa1,因为ε1范数在0处不可微。ε可以被视为“平滑参数”,在我们的4实验研究为了验证设计模型时的假设并评估我们提出的模型,我们进行了全面的实验研究,以回答以下问题:RQ1:重要参数(例如,潜在主题和潜在因素的数量)影响我们的模型的性能更重要的是,设置f=K是最优的,这是许多以前模型的默认假设(第二节)4.3)RQ2:我们的ALFM模型在评级预测方面是否能胜过同时考虑评级和评论的最先进的推荐方法?(第二节)4.4)RQ3:与其他也使用文本重定向的视图和评级,当用户只有很少的评级时,我们的ALFM模型在冷启动设置上的表现如何(第二节)4.5)RQ4:我们的模型能否明确解释高或低评级的原因(第二节)4.6)4.1数据集描述我们在两个可公开访问的数据集上进行了实验,这些数据集提供了用户评论和评级信息。第一数据集[26]3收集的Amazon Product Review数据集,其中包含来自Amazon的产品评论和元数据该数据集已被广泛用于先前研究中的评论和评级的评级预测[6,23,26,31]。该数据集分为24个产品类别。在本文中,我们使用了18个类别(见表2),并专注于5个核心版本,每个用户或项目至少有5个评论另一个数据集来自Yelp Dataset Challenge20174,其中包括4个国家12个大都市地区的本地业务评论对于Yelp 2017数据集,我们还对其进行了处理,以保持用户和项目至少有5条评论。 从这些数据集中的每个评论中,我们提取相应的“用户ID”、“项目ID”、评级分数(从1到5个评级星)和用于实验的文本评论。请注意,对于所有数据集,我们都检查并删除了重复项,然后再次过滤以将其保留为5核。此外,我们删除了每个数据集评论中的不常见术语5数据集的一些统计数据如表2所示。4.2实验设置对于每个数据集,我们将其随机分为训练,验证和测试集,每个用户的比例为80:10:10,如[6,23,26]所示因为我们采用5核数据集,其中每个用户至少有5次交互,所以每个用户至少有3次交互用于训练,每个用户至少有1次交互用于验证和测试。请注意,我们只使用了训练集中的评论信息,因为在真实场景的预测过程中,验证或测试集中的评论是不可用的在实验中将方面的数量设置为5。6基线:我们将建议的ALFM模型与遵循基线。值得注意的是,这些方法在验证数据集上进行了调整,以获得其最佳超参数设置,以进行公平比较。BMF [21]。这是一种标准的MF方法,考虑了偏差项(即,用户偏差和项目偏差)。此方法仅在对用户和项目的潜在因素建模时利用评级它通常是协同过滤中的强基线模型[21,23]。HFT[26]. 它使用MF对评级进行建模,并使用潜在主题模型(例如,LDA [5])。我们使用它作为使用指数转换函数将潜在主题与潜在因素联系起来的方法的代表,例如TopicMF [2]。主题分布可以在用户或项上建模我们使用基于项目的主题分布,因为它取得了更好的效果。注意,在实验中,我们将偏置项添加到HFT中,这可以实现更好的性能。CTR [32]。该方法还利用评论和评级信息两者。该方法利用主题模型学习项目的主题分布,并在此基础上加入一个潜在变量,作为MF中项目的潜在因素3 http://jmcauley.ucsd.edu/data/amazon/4 http://www.yelp.com/dataset_challenge/5不同数据集的不常见术语阈值不同。例如,对于“Yelp 2017”数据集,它相对较大,在评论中出现少于10次的术语被定义为不频繁术语;并且阈值对于相对小的数据集较小(例如,对于“音乐乐器”数据集,阈值为5)6我们将所有数据集的方面数从1调整到8,发现性能没有太大变化,除非将方面数设置为1或2。·······首页>外文书>人文>心理励志> User Modeling,WWW 2018,2018年4月23日至27日,法645即时视频杂货工具主页--0.9870.9810.9750.9690.963510 15 20 25#主题0.9870.9810.9750.9690.9635 10 15 2025#因素应该单独调整。然而,在先前的潜在因素模型(例如,HFT、TopicMF [2]、RMR、CTR和RBLT)、因子的数量(即,#因子)和主题的数量(即,#主题)被假定为相同的,并且因此不能被单独地优化。由于我们的模型没有这样的约束,我们分别研究了#因素和#主题的影响。图2示出了通过将另一个设置为5,随着#因子和#主题的变化的性能变化。由于空间限制和其他数据集的相似性能变化行为,我们只可视化了三个数据集的性能变化从图中可以看出,随着#个因子的增加,RMSE持续下降,尽管下降的程度很小。经预告而图2:我们模型中的因素和主题的影响在我们的模型中,评级预测仍然依赖于MF技术(等式2)。(五)。因此,#因子的增加可以导致更好的表示能力,从而更准确的预测。相比之下,潜在主题的最佳数量因数据集而异1.0331.0321.031510152025十点十五分5二十二十五1.15541.15521.155510152025十点十五分5二十二十五为了更好地可视化#factors和#topics的影响,我们还通过改变5, 10, 15, 20, 25中的因素和主题的数量来呈现3D图,如图所示3.第三章。 在此图中,我们使用三个数据集的性能作为说明。从图中可以看出,主题和潜在因素的最佳数量在不同的数据集中是不同的。一般来说,更多的潜在因素通常会导致更好的性能,而潜在主题的最佳数量取决于不同数据集的评论这(a) 服装(b) Yelp2017还揭示了将#factors和#topics设置为相同可以图3:#个因素对#主题。RMR [23]。此方法还同时使用评级和评论。与使用MF对评级进行建模的HFT和CTR不同,它使用高斯混合来对评级进行建模RBLT [31]. 这种方法是最新的方法,它还使用MF来建模评级和LDA来建模评论文本。代替使用指数变换函 数 来 链 接 潜 在 主 题 和 潜 在 因 素 ( 如 在 HFT [26]中),该方法线性地组合潜在因素和潜在主题以表示用户和项目,假设主题和潜在因素的维度相等并且在相同的潜在空间中。ITLFM也采用了相同的策略[39]。在这里,我们使用RBLT作为这种策略的代表性方法TransNet[6]。 该方法采用神经网络框架进行评级预测。在该模型中,用户和项目的评论被用作输入,以学习用户和项目的潜在表示。 有关此方法的更多描述,请参见第2节。 我们在实验中使用了作者发表的代码,并如[6]中所述调整了参数。采用标准均方根误差(RMSE)进行评价。RMSE值越小,表示性能越好。4.3重要参数的影响(RQ1)在这一小节中,我们分析了潜在因素的数量和潜在主题的数量对ALFM的最终性能的影响如我们所知,在MF中,更多的潜在因素将导致更好的性能,除非发生过拟合[20,21];而主题模型中潜在主题的最佳数量(例如,LDA)依赖于数据集[1,4]。相应地,得到了主题模型中的最优潜在主题数和MF中的最优潜在因子数不是最优的。4.4模型比较(RQ2)我们在表3中显示了我们的ALFM与所有基线方法的性能比较,其中每个数据集上的最佳预测结果以粗体显示为了公平比较,我们将潜在因素的数量(f)和潜在主题的数量(K)设置为与f=K=5相同。请注意,当f和K设置不同时,尽管如此,ALFM在19个数据集中的18个数据集上取得了最好的结果与只使用评分的BMF相比,我们实现了更好的预测性能(平均相对提高 更重要的是,我们的模型优于CTR和RMR,平均相对改善分别为6.28%和8.18%。 与最近提出的RBLT和TransNet相比,ALFM仍然可以实现平均3.37%和4.26%的相对改善,分别与显着性测试。值得一提的是,HFT实现了比RMR更好的性能,并且与最近的RBLT相当,因为我们在[26]中向原始HFT添加了偏差项。TransNet将具有较强表征学习能力的神经网络应用于评论中,学习用户偏好和条目特征,进行评分预测。然而,它可能遭受(1)评论中的噪声信息,这将使性能恶化;以及(2)当生成用于评级预测的假评论时引入的错误,这也将导致最终性能的偏差。与这些基线相比,ALFM的优势在于它对用户在不同方面的偏好进行建模;更重要的是,它捕获了用户对目标项目的每个方面的特定注意力。ALFM在这些基线上的实质性改进证明了对不同项目的每个方面建模用户的特定偏好的好处。RMSERMSERMSERMSE···首页>外文书>人文>心理励志> User Modeling,WWW 2018,2018年4月23日至27日,法646表3:所采用的方法在RMSE方面的比较,其中f=K=5。数据集BMF(一)HFT(b)第(1)款CTR(c)RMR(d)其他事项RBLT(e)Transnet(f)第(1)款ALFM(g)改善(%)G vs.一G vs.BG vs.CG vs. DG vs. eG vs. F即时视频1.1620.9991.0141.0390.9780.9960.96716.793.194.63*6.94*1.12*2.88汽车1.0320.9681.0160.9970.9240.9180.88514.26*8.58**12.86美元 *11.19*4.24**3.56*婴儿1.3591.1121.1441.1781.1221.1101.07620.83美元 **3.245.98*8.66**4.113.05*美容1.3421
下载后可阅读完整内容,剩余1页未读,立即下载
- 粉丝: 5
- 资源: 2万+
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Hadoop生态系统与MapReduce详解
- MDS系列三相整流桥模块技术规格与特性
- MFC编程:指针与句柄获取全面解析
- LM06:多模4G高速数据模块,支持GSM至TD-LTE
- 使用Gradle与Nexus构建私有仓库
- JAVA编程规范指南:命名规则与文件样式
- EMC VNX5500 存储系统日常维护指南
- 大数据驱动的互联网用户体验深度管理策略
- 改进型Booth算法:32位浮点阵列乘法器的高速设计与算法比较
- H3CNE网络认证重点知识整理
- Linux环境下MongoDB的详细安装教程
- 压缩文法的等价变换与多余规则删除
- BRMS入门指南:JBOSS安装与基础操作详解
- Win7环境下Android开发环境配置全攻略
- SHT10 C语言程序与LCD1602显示实例及精度校准
- 反垃圾邮件技术:现状与前景