code gpt python
时间: 2023-06-28 10:11:36 浏览: 158
以下是一个简单的 Python 代码示例,用于使用 Hugging Face Transformers 库加载预训练的 GPT 模型并生成文本:
```python
from transformers import GPT2Tokenizer, GPT2LMHeadModel
# 加载 GPT2Tokenizer 和 GPT2LMHeadModel
tokenizer = GPT2Tokenizer.from_pretrained('gpt2')
model = GPT2LMHeadModel.from_pretrained('gpt2')
# 设置生成文本的长度和起始文本
length = 50
prompt = 'Today is a beautiful day'
# 使用 tokenizer 编码起始文本
input_ids = tokenizer.encode(prompt, return_tensors='pt')
# 生成文本
output = model.generate(input_ids, max_length=length, do_sample=True)
# 使用 tokenizer 解码生成的文本
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
# 打印生成的文本
print(generated_text)
```
该代码将加载 GPT-2 模型和 tokenizer,然后使用给定的起始文本生成一些文本。该代码还使用 PyTorch 张量而不是 NumPy 数组来处理输入和输出。您可以根据需要调整生成文本的长度和起始文本。
阅读全文