没有合适的资源?快使用搜索试试~ 我知道了~
16530用于对话生成的分层变分记忆网络0Hongshen Chen �0数据科学实验室,京东chenhongshen@jd.com0Zhaochun Ren �0数据科学实验室,京东renzhaochun@jd.com0Jiliang Tang密歇根州立大学数据科学与工程实验室 tangjili@msu.edu0Yihong Eric Zhao京东ericzhao@jd.com0Dawei Yin †0数据科学实验室,京东yindawei@acm.org0摘要0对话系统帮助各种真实应用以智能自然的方式与人类进行交互。在对话系统中,对话生成的任务旨在根据上文生成话语。在各种对话生成方法中,端到端神经生成模型受到了越来越多的关注。这些端到端神经生成模型能够使用统一的神经编码器-解码器网络结构生成自然语言的句子。端到端结构在解码过程中逐字编码输入上下文中的每个单词并确定性地生成响应的单词。然而,现有方法仍然面临着变化的缺乏和捕捉话语之间长期依赖能力有限的挑战。在本文中,我们提出了一种新颖的分层变分记忆网络(HVMN),通过将分层结构和变分记忆网络添加到神经编码器-解码器网络中。通过模拟人与人之间的对话,我们提出的方法可以在对话跟踪过程中捕捉高层抽象变化和长期记忆,从而实现相关对话历史的随机访问。在三个大型真实数据集上进行的大量实验验证了我们提出的模型相对于对话生成的最新基线模型的显著改进。0CCS概念0• 信息系统 → 检索任务和目标;问答;0关键词0对话生成,分层变分记忆网络,递归编码器-解码器模型0� 这两位作者对本文做出了相同的贡献。† 通讯作者0本文发表在知识共享署名4.0国际许可证(CC BY4.0)下。作者保留在个人和公司网站上传播作品的权利,并附上适当的归属。WWW2018,2018年4月23日至27日,法国里昂,© 2018IW3C2(国际万维网会议委员会),根据创作共用CC BY 4.0许可证发布。ACM ISBN978-1-4503-5639-8/18/04。https://doi.org/10.1145/3178876.31860770ACM参考格式:Hongshen Chen,Zhaochun Ren,Jiliang Tang,YihongEric Zhao和DaweiYin。2018年。用于对话生成的分层变分记忆网络。在WWW2018:2018年网络会议,2018年4月23日至27日,法国里昂。ACM,纽约,纽约,美国,10页。https://doi.org/10.1145/3178876.318607701 引言0对话生成旨在自动地生成自然的回复,以在对话交互过程中交换信息(例如,知识、情感等)并完成各种特定任务[35,44]。近年来,自动对话生成在从电子商务技术支持到个人助理工具等众多应用中受到越来越多的关注[1,2,7,29,30,36,44]。在所有这些方法中,端到端神经生成模型[20,21,33,34,38,41]已被证明在多个对话系统应用中具有良好的性能。这些端到端神经生成模型大多基于循环神经网络的编码器-解码器架构,直接将输入上下文映射到输出响应。然而,当前的神经模型在对话生成中仍存在一些挑战[6]:(1)无意义的回复:给定广泛的上下文,通过神经生成模型训练的对话系统仍然有可能生成短而无意义的回复,例如“哈哈”和“我不知道”。由于这些神经生成模型是确定性的,并且后验推断中较短的回复通常具有更高的可能性,因此这些模型在生成回复时不注入变化;(2)记忆衰减:记忆消失始终是对话生成任务中的一个难题。对话会话通常包含多个轮次,对话越长,捕捉长期记忆的难度就越大。特别是,变异性的注入加剧了捕捉长期记忆的困难。因此,对于长话语上下文的响应生成非常困难,这决定了对于长话语上下文的响应生成是一个相当困难的问题。在本文中,我们旨在开发能够同时解决无意义回复和长期记忆依赖性挑战的方法。例如,考虑图1中的对话会话。与响应1相比,尽管两个回复都适合上下文,但响应2比其对应物更有意义。随着对话会话的推进,建模话语依赖关系变得越来越困难。0Track:Web Search and Mining WWW 2018,2018年4月23日至27日,法国里昂Track: Web Search and MiningWWW 2018, April 23-27, 2018, Lyon, France16540C1:为什么如果我对一个目录进行chmod300,人们仍然可以访问目录中的文件?0C2:因为你已经给了他们权限。0C3:但是我已经从目录中取了权限,他们怎么可能访问我已经删除了读权限的目录中的文件?0R1:我不确定你的意思是什么。0R2:chmod -R 777 /path/to/folder0图1:相同上下文的两个不同回答。0因此,系统生成了单调但合理的回答。三个障碍阻碍了回答的多样化和长期依赖关系的生成:(1)话语序列建模很困难,因为对话会话由多个话语组成;(2)对话的信息量不仅应考虑话语内部,还应考虑话语之间的关系;(3)随着对话的进行,学习长期依赖关系变得重要。我们尝试解决上述障碍,提出了一种新颖的框架,即HVMN,即H ierarchical V ariational M emory Network(HVMN)。它在分层递归神经网络设置中结合了变分自动编码器[18]和记忆网络[39,40]的精神,并旨在在检索具有一定随机性的记忆时记忆对话历史。分层结构对话序列进行编码,而变分记忆根据所有先前信息为每个话语采样一个潜变量,然后通过潜变量检索记忆单元。记忆单元保持更新以记忆新的话语,并且响应生成解码器由变分记忆块引导。我们在两个基准数据集和一个电子商务客户服务数据集上进行了大量实验。实验结果表明,HVMN优于最先进的基准,并生成更具信息量的回答。0我们的主要贡献可以总结如下:0• 我们确定了对话生成中回答信息量和长期话语依赖性的问题。•我们构建了一个分层变分记忆网络模型,通过桥接分层架构和变分记忆网络,生成合理、信息丰富和多样化的回答。0符号 描述0D 对话会话 U 话语 w 话语中的单词 MD中的话语数 m D中的第m个话语 N 话语的长度V 词汇表 e 嵌入映射函数 h enc t编码器在时间步t的隐藏状态 h dec t解码器在时间步t的隐藏状态 h u话语编码器的隐藏状态 h con上下文编码器的隐藏状态 M 记忆单元 b变分记忆输出 z 潜变量 P 先验分布 Q 后验分布 F遗忘门 U 更新门0表1:术语表。0•扩展实验证明了所提出的框架,并在基于度量和人工评估方面优于现有技术。0本文的剩余部分组织如下。我们在第2节中阐述了研究问题,并在第3节中描述了我们的方法。然后,第4节详细介绍了我们的实验设置和结果。相关工作在第5节中呈现。最后,第6节总结了本文。02 预备知识0在本节中,我们首先正式地阐述对话生成任务,然后介绍序列到序列模型的基础知识。02.1 任务定义0在进入对话生成任务之前,我们介绍了我们的关键符号和概念。表1列出了我们使用的主要符号。对话会话由两个对话者之间的M个轮次的话语序列D =U1,..,UM组成。在第m轮中,给定先前的话语U1,...,Um−1,对话生成模型旨在计算给定U1,...,Um−1的Um的概率,即P(Um |U1,..,Um−1)。每个话语Um是一个可变长度的单词序列,即wm,1,...,wm,Nm,其中wm,n是话语Um的第n个单词,Nm是话语的长度。P(Um |U1,..,Um−1)通过将概率分布分解为先前的话语和先前生成的单词而建模:0P ( wm, 1 ,..., wm, Nm | U 1 , ..., Um− 1 ) =0N0n = 1 P ( wm, n | U 1 , ..., Um − 1 , w < n ) .(1)Track: Web Search and MiningWWW 2018, April 23-27, 2018, Lyon, France16550编码器RNN0上下文RNN0解码器RNN记忆0图2:分层变分记忆网络的结构。橙色线表示记忆读取部分。红色线表示记忆更新部分。虚线表示我们的后验近似。02.2序列到序列模型0我们的工作基于序列到序列(SEQ2SEQ)模型。序列到序列模型在自然语言建模和机器翻译任务中占主导地位[9]。Shang等人[34],Sordoni等人[38]和Vinyals和Le[41]将其引入到对话建模中。它由一个编码器组成,该编码器接收先前话语的单词序列并输出一个固定大小的上下文向量,该向量总结了所有先前话语。它还提供一个解码器,根据上下文向量和递归隐藏状态通过对离散词汇V的预测逐字生成下一个话语。编码器和解码器基于递归神经网络(RNN)处理输入序列和输出序列。在每个步骤中,编码器RNN单元接收一个单词并更新其隐藏状态:0henc t = σ ( henc t − 1 , ewt ) , (2)0而解码器RNN的计算方式为0hdec t = σ ( hdec t − 1 , ewt , c ) , (3)0其中σ是非线性激活函数。它可以是简单的逐元素逻辑sigmoid函数,也可以是更复杂的函数,如长短期记忆(LSTM)[16]或门控循环单元(GRU)[9]。e是一个词嵌入映射函数。c是编码器RNN的最后隐藏状态,它是整个输入序列的摘要。0解码器的输出分布用于预测下一个标记,其由解码器RNN隐藏状态hdec t的仿射变换的softmax函数参数化:0Pθ ( wt+1 = v | w1, ..., wt )t, v ))0Σv′ exp ( δ ( hdec t , v′ )) . (4)0,其中δ是仿射变换函数。通过随机梯度下降法最大化训练实例上的对数似然来调整模型参数。03分层变分记忆网络0在本节中,我们提出了一种分层变分记忆网络(HVMN)来建模对话生成过程。该模型采用分层RNN来同时建模话语级别和上下文级别的对话话语。具体而言,对话由话语序列U1,...,Um建模为:0P ( U 1 , ..., U M )=0M0m = 1 P ( Um | U < m ) , (5)P(U1, ...,UM) =zposm= µposterior + Σposteriorϵposterior ,16560由于每个话语Um是一个单词序列wm, 1 , ..., wm,Nm,对话可以表示为:0M0N0n = 1 P ( wm, n | U < m, wm,< n ) .(6)0变分记忆网络利用潜变量和记忆块来捕捉对话追踪过程中的抽象和具体细节以及复杂的长期依赖关系。在解码时,还将先前生成的回复词作为输入提供给解码器。整个架构如图2所示。HVMN学习以四个步骤生成序列:0(1)话语编码器RNN将每个话语逐字编码为固定大小的向量,然后按顺序输入到上下文RNN中。(2)上下文RNN计算第m个话语的隐藏状态hconm。(3)然后在变分记忆块中,通过采样潜变量来检索记忆单元bm,同时使用hconm更新记忆,以累积记忆当前话语。(4)解码器RNN使用hconm和bm作为输入生成回复。0接下来,我们首先介绍通过编码器RNN和上下文RNN进行分层话语编码的过程(第3.1节)。然后,我们详细介绍第3.2节中的变分记忆读取和更新机制。最后,第3.3节描述了响应解码。03.1 话语编码0分层循环神经网络[37]将话语序列分为两个级别:每个话语由一系列单词组成,对话是一系列话语。基于这样的观察,对于一个话语Um =wm,1,...,wm,Nm,话语编码器RNN将其映射为话语向量,即在处理wm,Nm后的隐藏状态。一个单词wm,n的编码如下:hum,n =σ(hum,n-1, ewm,n),(7)0其中,σ是非线性激活函数,如LSTM或GRU,ewm,n是单词wm,n的嵌入,hum,n是处理wm,n后的隐藏状态。hum,Nm是话语Um的话语向量hum,可以看作是当前话语的总结。然后,上下文RNN通过以下方式记录话语序列:0hconm = σ(hconm-1, hum),(8)0其中,hconm是给定话语向量hum的上下文RNN的隐藏状态,σ是与方程式7中相同的非线性激活函数。hconm是所有先前观察到的话语的总结。03.2 变分记忆网络0变分记忆读取机制。模型使用连续随机潜变量zm从记忆M中获取bm:0bm =0I�0iMi m ⊙ zim, (9)0∙0图3:变分记忆读取机制。0其中,Mm∈Rdi×dz,zm∈Rdi,⊙表示Hadamard乘积函数。图3说明了变分记忆读取机制。潜变量zm是基于所有先前观察到的标记条件的,即上下文RNN的输出hconm,并且对于每个话语计算如下:0P(zm|U400 0 0.1 0.2 0.3 0.4 0.50-5050-100100-200200-400>400 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.40-5050-100100-200200-400>40016590模型平均贪婪极值H(w)0Ubuntu0SEQ2SEQ 0.215603 0.168833 0.126480 0.2638 HRED0.541548 0.411681 0.319299 0.3082 VHRED 0.5341030.402670 0.306242 0.2878 HVMN 0.558392* 0.422914*0.322032 0.30020Douban0SEQ2SEQ 0.024255 0.002961 0.023805 1.2253 HRED0.030904 0.003817 0.029889 1.5116 VHRED 0.0427740.005147 0.041703 1.3671 HVMN 0.053293 0.0065070.051560 3.10420JD0SEQ2SEQ 0.309752 0.204973 0.279654 0.3219 HRED0.737606 0.500789 0.675900 0.3286 VHRED 0.6096050.413422 0.558891 0.3473 HVMN 0.752574* 0.511170*0.691818 0.35550表3:基于嵌入度量的评估。“*”表示与VHRED相比显著更好,p≤0.01。0数量0句子数0图5:不同上下文长度的数量统计。0嵌入平均0SEQ2SEQ0HRED0VHRED0HVMN0图6:不同长度的嵌入平均比较。0讨论了评估结果。最后,我们提供了定性评估的响应示例。04.5基于度量的评估结果0表3列出了每个模型的性能。HVMN在三个语料库上始终优于几乎所有基线,从而在嵌入度量方面取得了更好的结果。0嵌入贪婪0SEQ2SEQ0HRED0VHRED0HVMN0图7:不同长度的嵌入贪婪比较。0嵌入极值0SEQ2SEQ0HRED0VHRED0HVMN0图8:不同长度的嵌入极值比较。0嵌入度量和平均三元词熵度量(除了Ubuntu技术语料库的词熵度量)的改进在Douban数据集上在嵌入平均和贪婪方面具有统计学意义(t检验,p≤0.01)。毫不奇怪,SEQ2SEQ在所有基于度量的评估中的性能最差。VHRED在Douban数据集上的三个主题相似度度量中表现优于HRED,而HRED实际上在Ubuntu和JD数据集上表现更好。这与Douban是一个开放领域的社交网络对话数据集的事实一致,该数据集具有更高的响应多样性,而Ubuntu和JD是特定领域的数据集。VHRED在Douban语料库上的更好性能明确验证了与HRED相比增加响应多样性的能力。对于所有测试方法,它们在Douban对话语料库上的性能要低得多,而熵要高得多。这表明Douban语料库中的对话更具信息量,对于对话生成任务来说更加困难,这与Douban语料库中的每个上下文通常由多个响应组成的事实一致。直观地说,如前所述,Douban语料库是一个开放领域的社交网络对话语料库,而Ubuntu技术语料库和JD客户服务语料库更具领域特定性。响应多样性在开放领域和领域特定语料库之间有所不同。Douban语料库上更高的响应熵明确验证了这一事实。0Track: Web Search and Mining WWW 2018, April 23-27, 2018, Lyon, France16600比较适宜度(%)信息性(%)0HVMN vs SEQ2SEQ 77.07 : 22.93 84.46 : 15.54 HVMNvs HRED 48.52 : 51.48 58.41 : 41.59 VHRED vs HRED44.57 : 55.43 52.91 : 47.09 HVMN vs VHRED 53.97 :46.03 55.56 : 44.440表4:人类评估的平均差异04.6 上下文长度的影响0图5列出了Ubuntu语料库中上下文的数量。大多数上下文的长度为0-50和50-100。图6-8展示了Ubuntu语料库上三种基于嵌入的评估指标在不同上下文长度上的性能。请注意,由于我们有类似的观察结果,我们没有展示其他数据集的结果。我们可以看到,在大多数不同长度的上下文中,HVMN的表现优于其他基线模型,而HRED的表现次之。与HRED相比,对于长度小于50的上下文,HVMN在嵌入平均值和嵌入贪婪度量上表现更好。一个可能的原因是,对于短上下文来说,生成合理的回复比常规上下文更困难,因为缺乏有效信息。通过手动检查结果,我们观察到基线模型甚至在逐字预测响应时都无法做出有意义的决策,而具有变分记忆的HVMN能够为短上下文注入变化。当我们观察主要的基线模型VHRED时,随着上下文变得更长,HVMN与VHRED之间的性能差距增大,这表明HVMN在长上下文中的表现优于VHRED。这证实了HVMN中的变分记忆能够为长期依赖提供更强的能力。04.7 人类评估表现0为了进一步验证性能,我们在Ubuntu数据集上进行了人类评估。我们选择Ubuntu语料库,因为在技术问题讨论中很容易确定一个回复是否合适,以及一个回复是否足够信息丰富。表4列出了比较结果。第1行和第4行表明HVMN在适宜度方面优于其对手,分别为77.07:22.93和53.97:46:03,而在信息性方面为84.46:15.54和58.41:44.44。我们还注意到VHRED在信息性方面优于HRED(第3行,52.91:47.09),而在适宜度方面表现不如HRED(44.57:55.43)。这表明,尽管Ubuntu是一个特定领域的技术数据集,VHRED仍然提高了回复的信息性,但适宜度有所下降,而HRED倾向于产生通用的安全和无意义的回复。一个直观的观察是,信息更丰富和更长的回复往往会犯更多的错误,而与之相比,短而乏味的回复则会减少错误。因此,与HRED相比,VHRED的适宜度降低,而信息性大大增加。在第2行中,HVMN在适宜度方面的表现与HRED相当(48.52:51.48)。然而,HVMN在信息性方面明显优于HRED(58.41:41.59)。这表明HVMN在增加信息性的同时保持了适宜度。通过利用变分记忆,HVMN在生成多样化和“正确”的回复方面比VHRED表现更好。04.8 定性评估0表5展示了不同模型生成的回复示例。很明显,HVMN在理解上下文方面表现更好。HVMN的回复不仅更合适,而且更具信息性和实用性。与LSTM和HRED相比,两个系统都倾向于产生通用的、“安全”的和乏味的回复。LSTM对所有情况都产生短而无意义的回复,而HRED则输出更长的回复,表现稍好,并更有可能承认自己不理解讨论并无法给出详细的解决方案。与HRED相比,表5中的第3行和第5行表明VHRED倾向于输出更具体的答案。它为第3行提供了一个适当的Linux命令,然而,对于第5行,它无法生成一个合适且有效的回复。总的来说,HVMN不会产生通用的“是/否”回复,而是提供详细和适当的操作,特别是对于第1行和第4行。05 相关工作0我们的相关工作可以分为两类:变分神经模型和内存网络。05.1 变分神经模型0Kingma和Welling[18]以及Kingma等人[19]引入了变分神经网络,用于在大规模数据集上执行高效的推断和学习。他们通过神经推断模型近似后验概率。模型参数与使用标准随机梯度下降优化的重新参数化的变分下界一起进行优化。Bayer和Osendorfer[3]提出了用于音乐生成和动作捕捉建模的随机递归网络。Chung等人[10]将潜在变量合并到递归神经网络的隐藏状态中。他们在令牌级别使用潜在变量,并应用于语音和手写合成。Gregor等人[15]将其用于图像生成,结合了一种模拟人眼注视的新颖空间注意机制和一种顺序变分自动编码框架,允许迭代构建复杂图像。Bowman等人[5]开发了一种用于无监督生成语言建模的变分自动编码器。Cao和Clark[6]通过引入一种用于一次性对话响应的潜在变量模型来解决确定性对话模型的无聊输出问题。Serban等人[32]在分层设置中直接利用子序列级别的潜在变量。Li等人[23]使用变分自动编码器来描述观察到的句子和多文档摘要的相应潜在语义表示。与以前的模型不同,我们的模型中的潜在变量用作从内存块中读取的关键,并学习在对话追踪过程中进行抽象高级决策。05.2 内存网络0内存网络模型首次由Sukhbaatar等人[40]和Sukhbaatar等人[39]提出。Cheng等人[8]为机器阅读器配备了一块内存带,使模型能够直接读取所有先前的隐藏状态。Wang等人[42]使用交互式内存0Track: Web Search and Mining WWW 2018, 2018年4月23日至27日,法国里昂16610上下文回应0你好,我正在使用Ubuntu12.04,出现黑屏问题。看起来我以root用户身份登录了图形系统X,但没有以我的用户身份登录。有人能解决我的问题吗?我使用的是Ubuntu12.04→你是否已登录?是否有文本提示符?0HVMN:是的,我可以以root身份登录,但我无法以root身份登录LSTM:**未知**HRED:是的VHRED:是的0嘿,我应该使用什么命令来提取一个gz文件tar.gz→哪个部分?文档,作业,实验?→抱歉,实验→等一下,我的连接变慢了→哦,抱歉,你看不到吗?你知道我是否需要提取那个.tar.gz吗?→还没有完成:Dskydrive很糟糕→哈哈,这是我唯一的选择,我可以给你发送我的onenote链接→好的,只为了你的链接,我变得连接变慢了:D0HVMN:我正在努力使其工作,但我找不到它的任何地方LSTM:?HRED:是的,我知道,但我必须去睡觉,我必须去睡觉:)VHRED:好的0有人告诉我du不会将隐藏的文件/目录大小计入其父目录的大小,但实际上du似乎仍然会计算→好吧,阅读手册吧。因为它一直都这样,而且将来也会这样吗?0HVMN:那是我想的,但我不认为有可能做到LSTM:?HRED:我知道,但我不知道如何做到,我只是想知道是否有办法做到VHRED:df-h什么都没有返回?0你好。我想从Windows7访问Ubuntu桌面,以了解客户端正在做什么。我该怎么做?你好。我想从Windows7访问Ubuntu桌面,以了解客户端正在做什么。我该怎么做?→尝试使用Teamviewer→我想在不让客户知道的情况下进行0HVMN您需要在Ubuntu机器上设置一个VNC服务器。LSTM:?HRED:抱歉,我不知道怎么做。VHRED:那我不知道,抱歉。0你好,我正在一个服务器上进行rsync,我刚刚远程查看,发现它显示有3个运行实例(通过ps aux | greprsync)。这正常吗?→它们看起来完全一样,还是有什么区别→它们看起来完全一样:那是什么意思?0HVMNrsync命令将告诉您rsync守护程序是否正在运行。LSTM:**未知**HRED:我不知道您所说的“**未知**”是什么意思。VHRED:grep“**未知**。**未知**”0表5:各种模型在Ubuntu语料库上生成的对话示例。列1列出了对话的上下文,而列2列出了不同模型生成的回应。“→”表示一次交替。0为了增强神经机器翻译中解码器的远距离记忆能力,Bordes和Weston[4]使用记忆网络处理餐厅预订,使用少量关键词处理知识库中的实体类型(菜系、位置、价格范围、派对规模、评级、电话号码和地址)。Ghazvininejad等人[12]将其改编为为神经对话模型记忆相关的基本事实。然而,所有这些模型都以某种确定性的方式读取记忆,而我们通过潜在变量通过内存读取注入了变异性。另一个区别是记忆在分层设置中增强,并且更新以记住每个话语。06 结论0本文研究了对话生成问题,并确定了主要挑战:长期依赖性和信息量。为了解决这些问题,我们利用了分层结构,结合变分记忆,增强了对话生成的话语建模。两级分层结构自然地对话话语进行编码,跨话语序列进行编码。变分记忆跟踪高层抽象,记住观察到的话语的长期细节,并随机地生成。0访问对话历史记录。在两个基准数据
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://img-home.csdnimg.cn/images/20210720083646.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)