get_bert_encode函数代码
时间: 2024-05-04 17:19:37 浏览: 109
以下是一个使用Hugging Face的Transformers库获取BERT编码的示例函数:
```python
from transformers import AutoTokenizer, AutoModel
def get_bert_encode(text, model_name='bert-base-uncased'):
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name)
encoded = tokenizer.encode_plus(text, max_length=512, truncation=True, padding='max_length', return_tensors='pt')
with torch.no_grad():
output = model(**encoded)[0]
return output.squeeze(0).numpy()
```
该函数使用AutoTokenizer和AutoModel类从Hugging Face的Transformers库中加载预训练的BERT模型。然后,它使用tokenizer.encode_plus将文本编码为BERT的输入格式,并使用model计算模型的输出。最后,函数将BERT输出张量转换为numpy数组并返回。请注意,此函数默认使用BERT-base-uncased模型,但可以通过提供其他模型名称来更改它。
阅读全文