GPT在NER上的表现
时间: 2024-04-25 15:21:54 浏览: 7
GPT在NER(命名实体识别)任务上的表现相对较低。GPT是一个文本生成模型,而NER是一个序列标记任务,这两者的任务性质不同。为了弥补这种差距,研究人员提出了GPT-NER模型,将序列标记任务转换为GPT的生成任务。GPT-NER通过将需要提取的实体标记添加到生成的文本中来完成NER任务。此外,为了解决GPT-NER模型中的幻觉问题,研究人员还提出了自我验证策略,即提示GPT-NER询问自己提取的实体是否属于标记的实体标签。在多个广泛使用的数据集上,GPT-NER实现了与完全监督基线相当的性能,并且在小样本场景下表现优于监督模型。\[2\]\[3\]
#### 引用[.reference_title]
- *1* [GPT 应该存在吗?](https://blog.csdn.net/csdnnews/article/details/130939444)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* *3* [【论文精读】GPT-NER: Named Entity Recognition via Large Language Models](https://blog.csdn.net/HERODING23/article/details/130476395)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]