没有合适的资源?快使用搜索试试~ 我知道了~
埃及信息学杂志22(2021)239基于通用语言模型的心理人类特征检测KamalEl-Demerdash,Reda A.El-Khoribi,Mahmoud A.Ismail Shoman,Sherif Abdou埃及开罗大学计算机和人工智能学院信息技术系阿提奇莱因福奥文章历史记录:收到2020年2020年9月5日修订2020年9月8日接受2020年10月31日在线提供保留字:大五人格模型人格特质LSTMNLP文 本 分 析 深 度学习ULMFiTA B S T R A C T人格特征检测是自然语言处理中文本分析的重要问题之一文本分析是在书面文本中发现洞察知识的过程。尽管大多数深度学习模型都具有很高的性能,但它们往往缺乏可解释性。计算机视觉(CV)已经受到归纳迁移学习的显著影响,但是在许多NLP技术中仍然需要从头开始训练和特定于任务的修改本文讨论了人格特质的分类问题。我们采用了通用语言模型微调(ULMFiT)在人格特质检测。该模型使用迁移学习而不是经典的单词嵌入浅层方法,并被证明是这是许多NLP问题中最强大的模型。使用该模型的基本优点是在分类之前不需要进行特征工程。当应用于基准数据集时,所提出的方法与大五人格特质的最新结果相比,统计准确性提高了约1%©2021 THE COUNTORS.由Elsevier BV代表计算机和人工智能学院发布开罗大学法律系这是一篇CC BY-NC-ND许可证下的开放获取文章(http://creative-commons.org/licenses/by-nc-nd/4.0/)上提供。1. 介绍人格特质极大地影响着我们的生活;它们影响着我们的生活方式选择,奢侈品,健康和许多其他偏好[1]。由于技术的发展和社交媒体服务在过去几年中的迅速普及,现在有了新的机会来研究个人留下的数字痕迹。这些痕迹主要以文本形式出现,如共享的评论和观察,以及其他媒体,如图像和视频。人们经常使用社交网络来分享他们的活动和观察,并广播他们对主题和事件的看法。这是一个丰富的信息来源,可以帮助我们了解人类的需求和情绪状态,因此被认为是人格特质检测的丰富来源。在过去的几年里,*通讯作者。电子邮件地址:k. grad.fci-cu.edu.eg(K. El-Demerdash),r.abdel-wahab@fci-cu.edu.eg(R.A. El-Khoribi),m. fci-cu.edu.eg(Mahmoud A.Ismail Shoman),s. fci-cu.edu.eg(S. Abdou)。开罗大学计算机和信息系负责同行审查。已经从根本上向个性识别发展,因为它人格特征的自动检测具有许多显著的实际应用。性格特征有助于识别某些疾病.众所周知,过敏和心脏病之间存在联系[2]。人格特质和疾病之间的这种关系被卫生当局广泛调查和考虑。个性化检测在取证中也很有帮助。在某些情况下,当调查人员知道犯罪现场的个人的个性特征时,这可能会有所帮助,嫌疑人[3]。1.1. 研究动机在许多科学文章中,深度学习结构和NLP任务被处理[3]。这些文章使用的技术词汇有时很难理解。由于在线文档在许多不同语言中的快速传播,现在对在线文档的评级需求巨大[3]。在这种背景下,迁移学习或领域自适应已被广泛应用于机器学习,特别是在深度神经网络时代,可以帮助重用开发的模型,https://doi.org/10.1016/j.eij.2020.09.0011110-8665/©2021 THE COMEORS.由Elsevier BV代表开罗大学计算机和人工智能学院出版。这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表埃及信息学杂志杂志主页:www.sciencedirect.comK. El-Demerdash,R.A. El-Khoribi,Mahmoud A. Ismail Shoman等人埃及信息学杂志22(2021)239240从一个源任务训练到另一个目标任务[4]。当从源任务或基本任务中学习到的特征是通用的并且可以重新用于目标任务时,迁移学习的力量非常明显目前,大多数CV模型都基于AlexNet,ResNet,MS-COCO等预训练模型提取特征[4]的文件。然而,在NLP模型中,直到Howard和Ruder提出ULMFiT[5],这个想法才取得了如此的成功。深度预训练单词表示是ULMFIT从浅模型到深模型的最大成就之一ULMFiT的概念语言建模(LM)是ULMFiT成为最先进技术的密码。ULMFiT利用Stephen Merity[6]提出的平均随机梯度下降加权丢弃长短期记忆(AWD-LSTM)LM。LSTM是一种特殊类型的递归神经网络(RNN)。尽管如此,在个性检测方面的工作越来越多要说什么是最先进的仍然很棘手,因为几乎所有在该领域工作的科学家都使用了不同的在我们的研究中,我们使用了最令人满意的大五模型[7]从文本中定义和发现我们的特质。它被认为是最令人满意的模型,因为它通过表1中总结的五个维度来计算和概括我们的个性,并以二进制(是/否)值表示:在本文中,我们展示了一种通过ULMFiT结构从意识流文章中提取人格特征的技术我们已经训练了五个独立的网络,使用五种人格特质的一种结构。每个网络都是一个二元分类器,用来预测相应特质的积极或消极。我们的研究结果显示,与五大人格特质的最新结果相比,准确性有了显着提高。我们将本文的其余部分组织如下:我们在第2节中给出了相关工作的一般性回顾,并在第3节中展示了所提出的模型架构。我们在第4节中解释和讨论了实验装置、使用的数据集、评估措施和基本结果。结论和未来的工作在第5节中介绍。2. 相关工作人格表露自动化被认为是一个很有前景的新领域。Yash Mehta等人[3]对人格特质检测领域的最新发展方向和演变进行了全面的文献扫描。他们修改了许多主题,展示了历史悠久的机器学习模型来检测人格,并对深度学习驱动的模型给予了他们使用不同的注释数据集以自动化的方式展示了最广泛的人格检测技术的一般视图。除此之外,他们还讨论了这个人-表1大五人格特征改编自[1]。五个特征描述外向性(EXT)这个人是外向的、健谈的、精力充沛的还是保守的、孤独的?神经质(NEU)这个人是敏感和紧张还是安全和自信?不同行业中的个性检测应用以及机器学习中提取个性的最新模型,特别关注多模态方法。关于文本模态,他们强调数据准备,从文本中捕获有用的特征是一个非常重要的阶段,采用正确的技术可以产生很好的效果。虽然一些研究者已经做了深入的研究,并从文本中发现了一些有用的特征,如语言查询和单词计数(LIWC)[8],Mairesse[9]。然而,从与用户个性密切相关的文本中找出有用的特征通常,从文本中提取特征,将其插入典型的ML分类器,如支持向量机[11]。James Pennebaker等人。[12]以前做过一些关于从纯文本中检测人格特质的工作,他们收集了我们在实验中使用的论文数据集。他们通过使用LIWC特征来定义文章和个人之间的相关性[8]。为了改善使用论文数据集的结果,Francois Maireesse[9]添加了其他功能,例如想象力。在相同的背景下,Saif Mohammad等人[11]应用特征集的组合来超越[9]中的结果,他们称之为Mairese基线。Sun等人。[10]使用相同的论文,并提出了使用双向LSTM与卷积神经网络(CNN)连接的模型,称为2CLSIM模型。他们利用文本的结构特征来捕捉用户的个性。他们引入了基于紧密连接的句子的抽象特征组合。Majumder等人[1]介绍了使用文章数据集的最新结果,他们从单词级别到句子级别对文章进行编码。他们使用三维卷积来学习文章的结构。他们给出了未来的研究方向,包括更多的功能和预处理,即如果书面文本包含重复的单词,句子包含垃圾邮件内容或未识别的字符集等,预处理过滤这些。我们的研究提出了一个有效的和可解释的模型,基于语言建模。LM的目标是预测给定单词列表的前一个单词或下一个单词[6]。它通过理解文本的长期依赖关系和层次结构,介绍了大多数NLP应用程序的重要基础知识[6]。虽然语言建模是对话建模和机器翻译等NLP任务的基本组成部分,但LM遭受悲惨的遗忘,并且在使用分类器进行微调时太大而无法适应小数据集。2.1. 词嵌入词嵌入是一种机制,其中单独的词被符号化为预定义向量空间中具有实值的向量[13]。这种技术的关键特征是以密集分布的表示来表示每个单词的思想[14]。这些单词的表示通常出现在数十或数百个维度中。这与独热编码技术不同,独热编码技术需要数千或数百万个维度来表示单词。图1示出了词嵌入概念。单词嵌入技术的最佳特征出现在单词具有相同含义的情况下,宜人性(AGR)尽责性(CON)这个人是否值得信赖,直率,慷慨,谦虚与不可靠复杂贫乏和自负的对比这个人是有效率和有组织的,还是草率和粗心的?代表性[13]。GloVe和Word2Vec[13,14]是学习单词嵌入并将其呈现为向量的非常常见的路径。它们是文本的分布式表示,对于具有挑战性的NLP的开放性(OPN)这个人是有创造力和好奇心的人,还是教条主义和谨慎的人?问题分布式表示是基于单词的使用来学习的。这会导致单词的类似K. El-Demerdash,R.A. El-Khoribi,Mahmoud A. Ismail Shoman等人埃及信息学杂志22(2021)239241Fig. 1. 单词嵌入的例子。以相似的方式使用,以自然的方式理解它们的含义[13]。2.2. 迁移学习迁移学习是一个令人兴奋的概念,我们试图从一个领域任务中提取先验知识,并将其插入到不同的任务中[15]。这项工作的灵感来自人类学习的方式。我们有一种与生俱来的渐进学习能力,而不是从头开始学习。NLP中的许多最先进的模型必须从头开始训练,并且需要大型数据集才能获得合理的结果[16]。它们不仅占用大量的内存,而且还非常耗时。具体来说,在文本分类中,甚至可能没有足够的标记示例开始。归纳迁移学习正好解决了这些挑战[15],它也是ULMFiT所基于的核心概念。图2显示了与传统机器学习的概念差异。迁移学习旨在模仿人类在学习一项任务时获取知识的能力,然后利用这些知识来解决一些相关的任务[16]。在传统的方法中,两个模型是分开训练的,既不保留知识,也不将知识从一个转移到另一个。另一方面,迁移学习将保留来自训练模型1的知识(例如,权重或特征),并且然后利用这些知识来训练模型2[16]。在这种情况下,模型1被称为源任务,模型2被称为目标任务[17]。 在这种情况下,NLP中有许多领域可以使用迁移学习来优化深度学习的一般过程,就像LM中旨在预测上下文中的单词一样。考虑我们有这样一句话:“我以为我会按时完成,但不幸的是结束了5分钟.. . “.对读者来说,很明显,下一个词将是一个意思是“迟到”的词或短语。要有效地找到这个问题的答案,不仅需要理解语言结构(名词跟在形容词后面,动词有主语,图二. 传统ML与迁移学习[16]。对象等)而且能够根据广泛的背景证据做出决策(“晚”是我们可以使用的可行选择在这种情况下,因为前面的文本给出了一个线索,即句子是在谈论时间)。此外,LM具有吸引人的特性,不需要标记的训练数据[6]。原始文本对每一个潜在的领域来说都是充分可用的。这两个属性使得语言建模非常适合学习广义基础模型。2.3. 通用语言模型微调概述UMLFiT依赖于NLP的最一般的归纳迁移学习设置:给定静态源任务TS和任何目标任务TT,其中TS不等于TT,它希望提高TT的性能,理想的源任务将是LM[5]。ULMFiT是一种高效的功能性迁移学习模型,可用于NLP中的许多任务。实际模型结构如图3所示。该模型通过利用最先进的AWD-LSTMLM引入了微调语言模型的关键技术,具有相同超参数的相同3层LSTM架构,并且除了使用调谐的dropout超参数之外没有其他添加[5]。基础LM编码器之上的分类器层只是一个池化层(最大池和平均池),后面是一个完全连接的线性层块。Ruder说,在同样的背景下,Ruder预计,UMLFiT已经捕获了语言的各个方面,并产生了令人印象深刻的经验结果。它结合了几种微调技术,这些技术具有广泛的适用性,可以提高其他方法的性能。整体模型在六个文本分类任务(包括三个情感分析任务)上的表现明显优于最先进的技术,在大多数数据集上将错误减少了18 代码和预训练的模型在(http://nlp.fast.ai/ulmfit)上是开源的。3. 建议的体系结构在介绍了ULMFiT的基本思想之后,我们现在可以专注于使用图4所示的ULM模型的人格任务模型的高级架构。完整的模型由预训练的ULM模型和用于所需任务的额外任务特定层的组合组成。一旦开发出ULM模型,学习过程就限于学习附加层的参数。这种迁移学习过程被称为微调,图三. ULMFiT由三个主要阶段组成:1-LM在一般领域语料库上进行训练,以捕获不同层中语言的一般特征,2-使用微调对目标任务数据进行微调以学习特定于任务的特征,3-分类器在目标任务上进行微调[16]。K. El-Demerdash,R.A. El-Khoribi,Mahmoud A. Ismail Shoman等人埃及信息学杂志22(2021)239242ULM,这是使用ULM的主要好处。我们已经训练了五个独立的网络,使用一个结构的五个人格特质的一个众所周知的数据集,通常用于比较人格检测技术。对于文本预处理,与CV中的图像相反,文本不能立即转换为数字以插入到模型中。 我们需要做的第一步是预处理我们的文本,以便我们将原始文本更改为单词或标记的列表(称为tokenization步骤)。然后将这些标记转换为数字(称为数字化步骤)。然后,这些数字被传递到嵌入层,嵌入层将在将它们插入模型之前将它们转换为浮动数组。为了概述拟议的模式,可将其分为三个步骤:1对数据进行预处理并为建模做好准备2根据数据集微调语言模型,3 在LM的编码器上构建分类器3.1. 一般域LM预训练在第一步中,LM在一个大型通用领域语料库上进行预训练,维基文本-103由28,595篇预处理的维基百科文章和1.03亿个单词组成[5]。现在,该模型能够预测序列中的下一个单词(具有一定程度的确定性)。在这个阶段,模型学习语言的一般特征,例如,英语语言的典型句子结构是主语-动词-宾语。3.2. 目标任务LM微调遵循迁移学习方法,在第一步中获得的知识应该用于我们的人格分类任务。然而,个性任务数据集(即,论文)可能来自与源任务数据集不同的分布为了解决这个问题,LM因此根据我们任务的数据进行了微调。我们在一般域和特定任务数据集的前向和后向LM上训练模型这个阶段收敛得更快,因为它只需要根据目标数据的特征进行调整,并且即使对于小数据集也可以训练一个可靠的LM[5]。就像第一步之后一样,模型此时能够预测序列中的下一个单词。然而,现在,它也学会了散文的网络特定功能,这是我们在实验中使用的。3.3. 目标任务分类器微调由于最终,在我们的情况下,我们不希望我们的模型预测序列中的下一个单词,而是提供人格特质分类,因此在这一步中,预训练的LM扩展了两个线性块,以便最终输出是特质标签(即EXT,NEU,AGR,CON和OPN)上的概率分布。为了训练整体分类模型,在监督学习框架中以端到端的方式训练模型。训练的目的是优化所有参数以尽可能地最小化目标函数。我们通过使用倾斜三角学习率(STLR)来训练架构。图图5示出了STLR,其以三角形方式改变每次迭代的学习速率。它作为训练迭代次数的函数用于ULMFiT,我们仅使用了一次循环,如作者[5]所建议的。该模型采用区分性微调的方法进行训练,对每一层组采用不同的学习率,对不同的层组采用冻结和解冻的方法逐步训练。如[5]中所述,我们的任务特定分类器层中的参数是唯一从头开始学习的参数。第一个线性层将最后一个隐藏层状态作为输入。4. 实验和结果在本节中,我们将通过实验来评估我们的模型在人格检测方面的有效性。为了评估所提出的方法,我们在通常用于比较个性检测技术的知名数据集上对其进行了测试。4.1. 实验装置最近,我们注意到公开的系统注释数据集。表2提供了具有用于个性检测的文本模态的常见数据集的概述。因此,科学家现在可以专注于创建和使用高级模型和架构,而不是数据收集和预处理[3]。值得一提的是,MBTI特质比五大特质更难预测,而且缺乏资源[20]。然而,MBTI人格测量是最流行的方法,目前世界各地都在使用[3]。4.2. 数据集为了评估拟议的UMLFiT,我们使用了James Pennebaker[12]编制的意识流论文数据集,该数据集用于比较文本模态中的个性检测。所使用的数据集的大小是每类2,467篇有效的未识别文章(190万字)。文章标有作者我们对所有的文章都做了实验流的标签见图4。 提出的模型的高级架构。图五、倾斜三角学习率[5]。K. El-Demerdash,R.A. El-Khoribi,Mahmoud A. Ismail Shoman等人埃及信息学杂志22(2021)239243表2流行的人格检测数据集。改编自[3]。数据集人格测量(Pennebaker and King 1999)[12]Big Five(Tausczik and Pennebaker 2010)[18]Big FiveKaggle MBTI[19]第19话:中国人的生活意识论文的数据来自作者他们收集志愿者在受控环境中撰写意识流论文,然后要求论文作者定位自己的五大人格特质[12]。他们通过使用LIWC特征来定义文章与人格之间的相关性。例如,在外向性方面得分高的人通常使用更多的积极情绪词汇(例如,伟大的,惊人的,快乐的),而那些更高的神经质使用第一人称单数(例如,我,我的,我)更多。4.3. 评估措施我们使用类的准确性与最先进的准确性结果进行头对头比较关于超参数,我们使用AWD-LSTM语言模型,嵌入大小为400,3 层 , 每 层 1150 个 隐 藏 激 活 [6] 。 我 们 使 用 80 的 时 间 反 向 传 播(BPTT)来实现LM的大输入序列我们使用混合精度训练,这使我们能够通过以FP16精度训练模型的一部分来使用更高的批量大小256,并且还可以在现代GPU上将训练速度提高2到3倍。我们使用逐渐解冻(部分训练模型,从除了分类头冻结的所有内容到整个模型训练,一次解冻一层)和差分学习率(更深的层获得更低的学习率)来训练模型我们对层应用0.3的dropout,对RNN层应用0.2的dropout,对输入嵌入层应用0.3的dropout,对嵌入层应用0.05的dropout,对RNN隐到隐矩阵应用0.5的我们微调的前向和后向LM为10个时期的每一个。微调需要200到400秒,这取决于每个类。分类器是一个有点重的模型,所以我们将批量大小降低到32。分类器需要的dropout少一点,所以我们传递dropout0.5把所有的辍学人数乘以这个数字对于验证操作,我们将数据集分为测试数据和训练数据。我们从所有论文中随机抽取20%来建立我们的验证集。我们对分类器进行了5个时期的微调。值得一提的是,我们实验中使用的许多配置在这里没有显示,以避免混乱,我们显示了为我们提供最佳特征准确性的配置。4.4. 结果和讨论我们将我们的模型与Majumder等人[1]在原始论文中报道的最先进的竞争准确性结果进行了比较,这已经被该领域最近发表的研究所证实[3]。表3与最先进的结果相比,建议的模型特征准确度性状EXTNEUAGRCONOPN最先进的结果58.0959.3856.7157.3062.68拟议成果58.8559.8859.2557.9763.30与表3中所示的最先进的准确性结果相比,所提出的UMLFiT是有竞争力的,并且对于使用意识流论文数据集的人格分类任务具有最先进的准确性结果,而无需在分类之前进行特征工程。该模型优于AGR性状,统计学差异约为2.54%,其余性状的统计学差异至少为0.5%我们在一般领域和我们的任务特定数据集的前向和后向LM上训练了模型,后向和前向LM都用于构建同一提议架构的两个版本为了获得最佳精度结果,最终决定是两者的集合。当应用方差分析测试时,我们提出的方法与五大人格特质的最新结果相比,显示出约1%的统计准确性显着提高我们使用Pytorch来构建整个模型,并利用Fastai库来应用训练策略和微调语言模型。我们在Google的Colabora- tory环境中使用GPU加速进行了实验5. 结论和今后的工作本文介绍了一种解决人格特质分类问题的方法我们使用ULMFiT模型对五种人格特质进行我们的研究结果显示,所有五个性状的准确性都比最先进的准确性结果这表明迁移学习在从文本中检测人格特质这一NLP任务中的完善性我们未来,我们计划通过强化学习进一步提高分类器的准确性。我们还计划训练多标签分类器,而不是对五种人格特质使用一种架构引用[1] Majumder N,Jesus S,Gelbukh A,Cambria E.基于深度学习的文档建模,用于从文本中进行个性检测。IEEE Intell Syst2017;32(2):74-9.[2] Yilmaz T,Ergil A,Ilgen B.基于深度学习的文档建模,用于土耳其语文本中的个性检测。在未来技术会议(FTC)的会议记录。[3] [10]杨文,李文,李文. 基于深度学习的人格检测的最新趋势。Artiff Intell Rev2019。https://doi.org/10.1007/s10462-019-09770-z. .[4] [10] J.J. A,J.J. N,J.J. A,J.计算机视觉的深度学习:简要回顾。2018年计算机神经科学[5] HowardJ,Ruder S. 用于文本分类的通用语言模型微调收录于:计算语言学协会第56届年会论文集(第1卷:长篇论文)。p. 328比39[6] 张文辉,张文辉,张文辉.正则化和优化lstm语言模型。在:学习表征国际会议;2018..[7] Digman J.人格结构:五因素模型的出现。Ann RevPsychol 1990;41:417-40.[8] Pennebaker J,Martha F ,Roger,B.语言调查与 字数统计。第71卷。LawrenceErlbaum Associates,Mahway; 2001..[9] Mairese F,Walker MA,Mehl MR,Moore RK.使用语言线索自动识别对话和文本中的个性。 J Artif Intell Res2007;30:457-500.[10] 孙 X , 刘 B , 曹 J , 罗 J , 沈 X. 我 是 谁 ? 人 格 检 测 基 于文 本 的 深 度 学 习 IEEEInternational Conference on Communications(ICC)IEEE; 2018. p. 1比6[11] Mohammad S,Kiritchenko S.使用主题标签从推文中捕捉精细的情感类别。Comput Intell2015;31(2):301-26.[12] Pennebaker J,King LA.语言风格:语言使用作为个体差异。J. Person Soc Psychol1999;77(6):1296-312.[13] Pennington J,Socher R,Manning CD. Glove:单词表示的全局向量。In:EMNLP;2014..[14] Mikolov T,Sutskever I,Chen K,Corrado G,Dean J.单词和短语及其组合的分布式表示。在:第26届神经信息处理系统国际会议的会议记录,2013年12月5日3111-3119..[15] 潘SJ,杨Q.关于迁移学习的调查。在:J.人格和社会心理学,IEEE知识和数据工程学报,第22卷,第10期; 2010年。K. El-Demerdash,R.A. El-Khoribi,Mahmoud A. Ismail Shoman等人埃及信息学杂志22(2021)239244[16] 杨伟杰,李晓梅,李晓梅. Ulmfit:研讨会信息系统(WS 18/19)的文本分析技术,2019年2月7日。https:wi.github.io/blog/..[17] 萨 卡湾 一个 全面 的动 手 指南 , 以转 移学 习与 深度 学 习中 的现 实世 界应 用 。Towards Data Science,Nov. 14,2018 [Blog]..[18] Tausczik YR,Pennebaker JW.词的心理意义:Liwc和计算机文本分析方法。 JLang Soc Psychol 2010;29(1):24-54.[19] [10]张文辉,张文辉.社交网络数据与实践:以friendfeed为例。在:社会计算,行为建模和预测国际会议。Springer; 2010. p. 346比53[20] 克莱姆河大五人格与大四人格:迈尔斯-布里格斯人格类型指标(mbti)与neo-pi人格五因素模型之间的关系。个人差异1996;21(2):303-7。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- VMP技术解析:Handle块优化与壳模板初始化
- C++ Primer 第四版更新:现代编程风格与标准库
- 计算机系统基础实验:缓冲区溢出攻击(Lab3)
- 中国结算网上业务平台:证券登记操作详解与常见问题
- FPGA驱动的五子棋博弈系统:加速与创新娱乐体验
- 多旋翼飞行器定点位置控制器设计实验
- 基于流量预测与潮汐效应的动态载频优化策略
- SQL练习:查询分析与高级操作
- 海底数据中心散热优化:从MATLAB到动态模拟
- 移动应用作业:MyDiaryBook - Google Material Design 日记APP
- Linux提权技术详解:从内核漏洞到Sudo配置错误
- 93分钟快速入门 LaTeX:从入门到实践
- 5G测试新挑战与罗德与施瓦茨解决方案
- EAS系统性能优化与故障诊断指南
- Java并发编程:JUC核心概念解析与应用
- 数据结构实验报告:基于不同存储结构的线性表和树实现
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功