plmee中文事件抽取代码‘

时间: 2024-05-14 11:15:37 浏览: 10
以下是一个简单的基于BERT+BiLSTM+CRF模型的中文事件抽取代码示例,使用了pytorch和transformers库: ```python import torch from transformers import BertTokenizer, BertModel import torch.nn as nn class BertBiLSTMCRF(nn.Module): def __init__(self, bert_model, num_tags, hidden_size=768, dropout_prob=0.1): super(BertBiLSTMCRF, self).__init__() self.bert = bert_model self.bilstm = nn.LSTM(hidden_size, hidden_size // 2, num_layers=1, bidirectional=True, batch_first=True) self.dropout = nn.Dropout(dropout_prob) self.fc = nn.Linear(hidden_size, num_tags) self.crf = CRF(num_tags, batch_first=True) def forward(self, input_ids, attention_mask): bert_outputs = self.bert(input_ids=input_ids, attention_mask=attention_mask) sequence_output = bert_outputs[0] sequence_output = self.dropout(sequence_output) lstm_output, _ = self.bilstm(sequence_output) lstm_output = self.dropout(lstm_output) emissions = self.fc(lstm_output) mask = attention_mask.bool() crf_output = self.crf.decode(emissions, mask) return crf_output class CRF(nn.Module): def __init__(self, num_tags, batch_first=False): super(CRF, self).__init__() self.num_tags = num_tags self.transitions = nn.Parameter(torch.randn(num_tags, num_tags)) self.start_transitions = nn.Parameter(torch.randn(num_tags)) self.end_transitions = nn.Parameter(torch.randn(num_tags)) self.batch_first = batch_first def forward(self, emissions, tags, mask): if self.batch_first: emissions = emissions.transpose(0, 1) tags = tags.transpose(0, 1) mask = mask.transpose(0, 1) sequence_length = emissions.shape[0] batch_size = emissions.shape[1] score = self.start_transitions.view(1, -1) + emissions[0] for i in range(1, sequence_length): broadcast_score = score.unsqueeze(2) broadcast_emissions = emissions[i].unsqueeze(1) next_score = broadcast_score + self.transitions + broadcast_emissions next_score = torch.logsumexp(next_score, dim=1) mask_idx = mask[i].unsqueeze(1).expand(batch_size, self.num_tags) score = torch.where(mask_idx, next_score, score) score = score + self.end_transitions.view(1, -1) score = torch.logsumexp(score, dim=1) gold_score = self._score_sentence(emissions, tags, mask) return (score - gold_score) / batch_size def decode(self, emissions, mask): if self.batch_first: emissions = emissions.transpose(0, 1) mask = mask.transpose(0, 1) sequence_length = emissions.shape[0] batch_size = emissions.shape[1] score = self.start_transitions.view(1, -1) + emissions[0] history = [] for i in range(1, sequence_length): broadcast_score = score.unsqueeze(2) broadcast_emissions = emissions[i].unsqueeze(1) next_score = broadcast_score + self.transitions + broadcast_emissions next_score, indices = torch.max(next_score, dim=1) history.append(indices) mask_idx = mask[i].unsqueeze(1).expand(batch_size, self.num_tags) score = torch.where(mask_idx, next_score, score) score = score + self.end_transitions.view(1, -1) _, best_tag = torch.max(score, dim=1) best_path = [best_tag] for h in reversed(history): best_tag = torch.gather(h, 1, best_tag.unsqueeze(1)).squeeze() best_path.insert(0, best_tag) best_path = torch.stack(best_path).transpose(0, 1) return best_path def _score_sentence(self, emissions, tags, mask): if self.batch_first: emissions = emissions.transpose(0, 1) tags = tags.transpose(0, 1) mask = mask.transpose(0, 1) sequence_length = emissions.shape[0] batch_size = emissions.shape[1] score = self.start_transitions[tags[0]] for i in range(1, sequence_length): current_tags = tags[i] previous_tags = tags[i - 1] transition_score = self.transitions[previous_tags, current_tags] emission_score = emissions[i, torch.arange(batch_size), current_tags] mask_idx = mask[i] score = score + transition_score * mask_idx + emission_score * mask_idx last_tag_indexes = mask.sum(dim=0) - 1 last_tags = tags[last_tag_indexes, torch.arange(batch_size)] last_transition_score = self.end_transitions[last_tags] last_mask_idx = mask.sum(dim=0).float() last_score = last_transition_score + last_mask_idx return score + last_score tokenizer = BertTokenizer.from_pretrained('bert-base-chinese') model = BertModel.from_pretrained('bert-base-chinese') num_tags = 4 # 事件类型数 class EventExtractor: def __init__(self, model_path='event_extractor.pt'): self.model = BertBiLSTMCRF(model, num_tags) self.model.load_state_dict(torch.load(model_path, map_location=torch.device('cpu'))) self.model.eval() def extract(self, text): input_ids = tokenizer.encode(text, add_special_tokens=True) attention_mask = [1] * len(input_ids) with torch.no_grad(): pred_tags = self.model(torch.tensor(input_ids).unsqueeze(0), torch.tensor(attention_mask).unsqueeze(0)) pred_tags = pred_tags[0] tags = [idx2tag[i] for i in pred_tags] entities = [] for i, tag in enumerate(tags): if tag.startswith('B-'): entity = {'start': i, 'type': tag[2:]} j = i + 1 while j < len(tags) and tags[j] == 'I-' + tag[2:]: j += 1 entity['end'] = j - 1 entity['word'] = tokenizer.decode(input_ids[entity['start']:entity['end']+1]).replace(' ', '') entities.append(entity) return entities tag2idx = {'O': 0, 'B-LOC': 1, 'B-PER': 2, 'B-ORG': 3, 'I-LOC': 4, 'I-PER': 5, 'I-ORG': 6} idx2tag = {idx: tag for tag, idx in tag2idx.items()} extractor = EventExtractor() ``` 在上述代码中,我们使用了BERT作为输入特征提取器,然后将其输出送入一个双向LSTM网络中进行序列标注,最后使用CRF层进行整个序列的解码,得到最终的事件抽取结果。具体实现细节可以参考代码中的注释。

相关推荐

最新推荐

recommend-type

纯JS前端实现分页代码

因为这是我自己第一次动手用js写分页,写的应该也不是很完美,有些公共的没有抽取出来,但是用起来还是可以的,这块代码是可以把它当做公共的分页去处理的,我就是用这块代码写了两个稍微不同一些的分页!公共的代码...
recommend-type

C语言实现随机抽取纸牌

主要为大家详细介绍了C语言实现随机抽取纸牌,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

HSV转为RGB的计算公式

HSV (Hue, Saturation, Value) 和 RGB (Red, Green, Blue) 是两种表示颜色的方式。下面是将 HSV 转换为 RGB 的计算公式: 1. 将 HSV 中的 S 和 V 值除以 100,得到范围在 0~1 之间的值。 2. 计算色相 H 在 RGB 中的值。如果 H 的范围在 0~60 或者 300~360 之间,则 R = V,G = (H/60)×V,B = 0。如果 H 的范围在 60~120 之间,则 R = ((120-H)/60)×V,G = V,B = 0。如果 H 的范围在 120~180 之间,则 R = 0,G = V,B =
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

MATLAB柱状图在数据分析中的作用:从可视化到洞察

![MATLAB柱状图在数据分析中的作用:从可视化到洞察](https://img-blog.csdnimg.cn/img_convert/1a36558cefc0339f7836cca7680c0aef.png) # 1. MATLAB柱状图概述** 柱状图是一种广泛用于数据可视化的图表类型,它使用垂直条形来表示数据中不同类别或组别的值。在MATLAB中,柱状图通过`bar`函数创建,该函数接受数据向量或矩阵作为输入,并生成相应的高度条形。 柱状图的优点在于其简单性和易于理解性。它们可以快速有效地传达数据分布和组别之间的比较。此外,MATLAB提供了广泛的定制选项,允许用户调整条形颜色、
recommend-type

已知自动控制原理中通过更高的频率特征来评估切割频率和库存——相位稳定。确定封闭系统的稳定性。求Wcp 和ψ已知W(p)=30•(0.1p+1)•(12.5p+1)/p•(10p+1)•(0.2p+1)•(p+1)

根据相位稳定的定义,我们需要找到一个频率 Wcp,使得相位满足 -ψ = -180°,即 ψ = 180°。此时系统的相位裕度为 0°,系统处于边缘稳定状态。 首先,我们需要将 W(p) 表示成极点和零点的形式。将分母和分子分别因式分解,得到: W(p) = 30 • (0.1p+1) • (12.5p+1) / [p • (10p+1) • (0.2p+1) • (p+1)] = 375p/(p+1) - 3750/(10p+1) + 750p/(0.2p+1) - 3750p/(10p+1) + 150p/(p+1) + 30 因此,系统的极点为 -1、-0.1、-0.2、