Practical Program Repair in the Era of Large Pre-trained Language Models
时间: 2024-05-19 11:11:36 浏览: 103
是一篇与自动程序修复相关的论文,它提出了一种基于预训练语言模型的程序修复方法,该方法使用了大规模的自然语言处理模型来辅助程序修复。具体来说,该方法首先使用自然语言处理模型来理解程序的语义,然后根据理解结果对程序进行修复。
这种方法的优点在于它利用了预训练语言模型在自然语言理解方面的显著进展,从而提高了程序修复的效果。同时,该方法还可以通过对不同类型的错误进行建模来提高修复的准确性和效率。
相关问题
Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language Models
《Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language Models》是一篇关于利用预训练语言模型来增强知识图谱自动补全的论文。该论文提出了一种基于文本增强的知识图谱补全方法,该方法使用预训练的语言模型对实体描述和关系描述进行编码,并将其与知识图谱中的实体和关系嵌入向量进行联合训练,以生成更好的嵌入向量。该方法还使用了一种基于标签传播的后处理方法来进一步提高补全的准确性。实验结果表明,该方法在多个知识图谱补全任务上取得了优异的性能。
Bidirectional Cross-Modal Knowledge Exploration for Video Recognition with Pre-trained Vision-Language Models所提出的模型属于transformer的变体吗?
是的,"Bidirectional Cross-Modal Knowledge Exploration for Video Recognition with Pre-trained Vision-Language Models"这篇论文中提出的模型属于Transformer的变体。具体来说,这个模型是由两个部分组成的:一个视觉transformer和一个语言transformer。两个transformer都是基于原始的Transformer结构设计的,但是在细节上进行了一些修改和调整,以适应视觉和语言的特性。例如,在视觉transformer中,对于每个视频帧,使用卷积神经网络提取特征,并将其输入到transformer中。在语言transformer中,使用预训练的BERT模型提取文本特征,然后将其输入到transformer中。这种双向的交叉模态知识探索方法可以提高视频识别性能。
阅读全文