Ubuntu中docker里面部的ollama对deepseek-coder 模型下载
时间: 2025-03-02 07:16:02 浏览: 19
部署Ollama并下载DeepSeek-Coder模型
安装Docker
为了确保Docker已正确安装,在终端输入命令来验证版本:
docker --version
如果未安装,则需按照官方指南完成安装。
启动Docker容器
创建并启动一个新的Docker容器用于运行Ollama服务。这一步骤假设读者已经具备基本的Linux命令行操作技能以及对Docker有一定了解[^1]。
docker run -d --name open-webui -p 7860:7860 your_image_name
这里的your_image_name
应替换为实际使用的镜像名称,而端口号可以根据实际情况调整。
登录容器内部
使用以下指令登录到刚才启动的容器内执行后续命令:
docker exec -it open-webui /bin/bash
此命令允许用户进入正在运行中的容器环境中继续配置工作。
创建Conda环境
建议在开始之前先激活特定的工作环境以保持依赖项隔离。对于本案例而言,是在名为self-llm
的环境下进行操作[^2]:
conda activate /root/miniconda3/envs/self-llm
下载DeepSeek-Coder模型
最后,利用Ollama提供的工具拉取所需的预训练模型文件。具体来说就是通过指定URL地址获取目标模型deepseek-coder:
ollama pull https://www.ollama.com/library/deepseek-coder
上述过程描述了如何基于Ubuntu平台下的Docker容器成功部署Ollama框架,并从中下载所需的大规模语言模型实例——即deepseek-coder的过程。
相关推荐


















