VLLM部署deepseek
时间: 2025-02-12 17:20:26 浏览: 129
使用 VLLM 部署 DeepSeek 教程
设置环境变量
为了确保集群中的每个节点都能正确识别主机IP地址,在启动Ray之前需要获取本地IP并将其设置为环境变量。具体操作如下:
VLLM_HOST_IP=$(hostname -I | awk '{print $1}')
export VLLM_HOST_IP
这段命令会自动获取当前机器的IPv4地址,并赋值给VLLM_HOST_IP
环境变量[^1]。
下载安装包
对于 Windows 用户来说,可以通过访问指定链接来下载最新的 Ollama 安装程序。该文件是一个 .exe
文件,可以直接运行以完成安装过程。
https://github.xzc888.top/ollama/ollama/releases/latest/download/OllamaSetup.exe
建议使用浏览器或专用下载工具如 IDM 来加速下载进程[^2]。
准备工作
在正式开始部署前,确认已准备好必要的硬件资源和支持软件。这包括但不限于足够的计算能力、内存以及支持 CUDA 的 GPU 设备(如果有)。同时还需要安装 Python 和其他依赖库。
启动服务
按照官方文档指示配置好环境之后,就可以通过命令行或其他方式启动 DeepSeek 服务了。具体的启动参数可能因版本不同而有所差异,请参照最新发布的指南进行调整。
测试验证
最后一步是对整个系统的功能进行全面测试,确保各个组件正常运作并且能够协同处理请求。可以编写简单的 API 调用来检验模型推理的效果。
相关推荐


















