deepseek r1 32b ollama pull embed
时间: 2025-03-03 15:22:21 浏览: 23
获取 DeepSeek R1 32B 模型用于嵌入
为了从 Ollama 平台获取 DeepSeek R1 32B 模型并将其应用于嵌入任务,需遵循特定的操作流程。通常情况下,Ollama 提供了一个命令行工具来简化这一过程。
安装必要的依赖库之后,可以通过 Docker 或者原生的 Python 环境来进行操作。对于通过 Docker 的方式来说,先确保本地已经正确配置好了 Docker 环境[^1]:
docker pull ollama/deepseek-r1-32b:latest
上述命令会下载最新的 DeepSeek R1 32B 版本镜像到本地机器上。如果希望直接利用 Python 脚本来加载模型,则可能需要参照官方文档中的说明,设置相应的环境变量以及导入路径。
一旦成功拉取了所需的模型文件,在应用层面实现向量嵌入功能时可以采用如下代码片段作为起点:
from transformers import AutoModel, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("path_to_local_model")
model = AutoModel.from_pretrained("path_to_local_model")
def embed_text(text):
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
embeddings = outputs.last_hidden_state.mean(dim=1).detach().numpy()
return embeddings
这段脚本展示了如何基于 Hugging Face Transformers 库初始化预训练的语言模型实例,并定义一个简单的函数 embed_text
来计算给定文本对应的词向量表示形式。
相关推荐


















