Qwen1.5 -72B
时间: 2025-01-01 15:20:55 浏览: 12
### Qwen 1.5 72B 模型介绍
Qwen 1.5 72B 是一款大型预训练语言模型,在多个方面进行了显著改进。这款模型拥有高达720亿个参数,属于Qwen 1.5系列的一部分[^3]。
#### 特性概述
- **多尺寸支持**:提供了多种不同规模的模型选项,包括但不限于72B参数版本。这使得开发者可以根据具体应用场景灵活选择最合适的模型大小。
- **性能提升**:相较于之前的版本,在人类偏好度评测中表现出色,特别是在对话场景下的交互能力得到了极大增强。
- **多语言处理能力**:无论是基础版还是聊天专用版都具备良好的跨语种理解与生成能力,能够满足国际化应用需求。
- **上下文长度扩展至32K token**:对于需要长时间记忆或复杂逻辑推演的任务来说非常重要,可以有效提高长文本理解和连贯表达的质量。
- **无需依赖远程代码执行**:简化了部署流程并提高了安全性,不再强制要求`trust_remote_code=True`这样的配置项即可正常运行。
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-1.5-72B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-1.5-72B")
input_text = "你好"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
阅读全文