kobert参考文献
时间: 2024-05-11 07:12:53 浏览: 141
KoBERT是一种基于BERT(Bidirectional Encoder Representations from Transformers)的韩语预训练语言模型,由韩国的SK Telecom公司和KAIST机构共同开发。它在韩语自然语言处理方面取得了很好的效果,并且已经被广泛应用于许多自然语言处理任务中,例如情感分析、命名实体识别、问答系统等。
以下是一些KoBERT参考文献:
1. Junyoung Chung, Kyubyong Park, et al. "KoBERT: Korean BERT Pretrained on Large Corpus." arXiv preprint arXiv:1909.06697 (2019).
2. Donghyeon Won, Janghaeng Lee, et al. "KorNLI and KorSTS: New Benchmark Datasets for Korean Natural Language Understanding." arXiv preprint arXiv:2004.03289 (2020).
3. Kim, Minkyu, et al. "Korean Dialogue State Tracking Challenge." arXiv preprint arXiv:1910.00591 (2019).
阅读全文