ollama 运行的DeepSeek模型,如果通过API调用
时间: 2025-02-28 17:04:10 浏览: 31
### 如何通过API调用运行在Ollama平台上的DeepSeek模型
#### 安装与配置环境
为了能够顺利地通过API调用来操作运行于Ollama平台之上的DeepSeek模型,需先完成Ollama的安装部署工作。对于Windows操作系统而言,具体的安装指南可以参照官方文档说明[^2]。
#### Python API调用示例
一旦完成了Ollama及其所支持的语言模型(如DeepSeek R1)的成功部署之后,则可以通过如下所示的方式利用Python脚本发起HTTP请求来实现对特定功能模块或方法函数的远程调用:
```python
import requests
import json
url = "http://localhost:8000/v1/engines/deepseek-r1/completions"
headers = {
'Content-Type': 'application/json',
}
data = {
"prompt": "你好",
"max_tokens": 50,
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())
```
此段代码展示了怎样向已启动的服务端发送POST请求并获取返回的结果数据。这里假设服务正在监听`localhost`地址下的8000端口,并且遵循OpenAI兼容性的RESTful风格API设计原则[^1]。
#### 使用OLLAMA CLI工具简化交互过程
除了编程方式外,还可以借助命令行界面(CLI)来进行更便捷的操作。例如,想要查看当前可用的所有引擎列表以及它们的状态信息,只需执行下面这条指令即可:
```bash
ollama engines list
```
如果希望直接测试某个具体模型的效果而不必编写额外的应用程序逻辑的话,那么也可以采用这种方式快速验证其基本性能表现[^3]。
阅读全文
相关推荐


















