与本地deepseek1.5b python 对话
时间: 2025-03-03 16:36:13 浏览: 36
使用 Python 与本地安装的 DeepSeek1.5B 模型对话
为了能够顺利地使用 Python 脚本与本地安装的 DeepSeek1.5B 进行交互,需确保环境配置正确无误。通常情况下,这涉及到确认 OLLAMA 平台已妥善设置并能正常运作。
验证OLLAMA平台状态
在尝试编写任何代码之前,建议先验证 OLLAMA 是否已经成功启动以及 DeepSeek 模型能否被命令行工具访问。可以通过 CMD 命令 ollama run deepseek-r1:1.5b
来测试这一点[^3]。如果该指令返回预期的结果,则说明基础架构层面不存在障碍。
编写Python脚本来发起请求
一旦确认了上述条件满足之后,就可以着手构建用于发送查询给模型的应用程序接口(API)客户端。下面给出了一段简单的 Python 示例代码,它利用 HTTP POST 请求的方式向运行中的 OLLAMA 发送自然语言输入,并接收来自 DeepSeek 的响应:
import requests
import json
def query_deepseek(prompt):
url = "http://localhost:8000/v1/completions"
headers = {
'Content-Type': 'application/json'
}
payload = json.dumps({
"model": "deepseek-r1:1.5b",
"prompt": prompt,
"max_tokens": 50
})
response = requests.request("POST", url, headers=headers, data=payload)
result = json.loads(response.text)
return result['choices'][0]['text']
if __name__ == "__main__":
user_input = input("请输入您想要询问的内容:")
answer = query_deepseek(user_input)
print(f"DeepSeek的回答是:\n{answer}")
这段代码假设 OLLAMA 正常工作于默认端口 (即8000),并且 API 接口路径为 /v1/completions
。请注意调整这些参数以匹配实际部署情况下的具体设定[^1]。
处理特殊token缺失问题
对于某些特定版本的 DeepSeek 模型,在初始化过程中可能会遇到缺少 <think>
token 的错误提示。针对这种情况,可以在加载模型前预先定义所需的 tokens 或者更新至最新版的库文件来解决此问题[^2]。
相关推荐


















