ollama中deepseek模型
时间: 2025-02-24 15:34:37 浏览: 29
Ollama 中 DeepSeek 模型的使用说明
安装 Ollama 工具
为了能够顺利部署和管理大模型,安装 Ollama 是必要的前置条件。这可以通过官方文档获取详细的安装指南[^1]。
修改环境变量配置
针对想要通过本地主机访问所部署的服务的情况,需设置相应的环境变量 OLLAMA_HOST
的值为 0.0.0.0
以便允许外部连接[^2]。
获取并加载 DeepSeek 模型
对于希望利用特定版本(如7B参数量级)的DeepSeek聊天模型而言,可以执行命令来拉取该预训练好的模型文件到本地环境中:
ollama pull deepseek-chat
发起 API 请求调用
一旦完成了上述准备工作之后,则可通过发送 HTTP POST 请求的方式向已启动的服务端口提交对话请求数据包以实现交互功能;具体来说就是构造 JSON 格式的 payload 并指定目标 URL 地址来进行通信操作。
import requests
url = "http://localhost:8080/v1/chat/completions"
payload = {
"model": "deepseek-chat",
"messages": [{"role": "user", "content": "你好"}],
}
response = requests.post(url, json=payload).json()
print(response['choices'][0]['message']['content'])
阅读全文
相关推荐


















