优麒麟系统进行本地部署deepseek模型 ,并通过web访问交互
时间: 2025-03-06 11:41:43 浏览: 46
本地部署DeepSeek模型并设置Web接口
为了在优麒麟Linux操作系统中成功部署DeepSeek模型并通过Web界面进行访问和交互,环境准备至关重要[^1]。这涉及安装必要的依赖库以及配置运行环境。
安装Python及相关开发包
由于DeepSeek基于Python编写,因此需要先确认已安装适当版本的Python解释器。建议使用虚拟环境来管理项目所需的软件包,从而避免不同项目的依赖冲突。可以利用venv
模块创建独立的工作空间:
python3 -m venv deepseek-env
source deepseek-env/bin/activate
接着按照官方文档指示安装其他必需组件,比如PyTorch框架及其对应的CUDA扩展(如果硬件支持的话),以及其他辅助工具如transformers库等。
获取DeepSeek源码与预训练权重文件
鉴于DeepSeek是一款开源模型[^2],可以从其GitHub仓库克隆最新版代码至本地机器,并下载配套使用的预训练参数文件。通常情况下,这些资源会被放置于特定目录下以便后续加载。
配置open-webui服务端口及路径映射
为了让用户能够方便地通过浏览器操作DeepSeek功能,需引入专门设计用于此目的web应用程序——即文中提到过的open-webui工具。调整应用内部设定使得它可以正确识别所要挂载的目标API地址;同时指定静态页面存放位置,确保HTML/CSS/JS前端资产能被正常渲染显示出来。
启动服务测试连接情况
完成上述准备工作之后就可以尝试启动整个系统了。进入命令行输入相应指令开启后台进程监听HTTP请求,注意观察日志输出判断是否存在异常状况影响正常使用体验。一旦遇到问题应当及时查阅错误提示信息加以排查解决直至一切运作顺畅为止。
from flask import Flask, request, jsonify
import torch
from transformers import AutoModelForSequenceClassification, AutoTokenizer
app = Flask(__name__)
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model_name_or_path = "./path_to_deepseek_model"
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path).to(device)
@app.route('/predict', methods=['POST'])
def predict():
data = request.json
inputs = tokenizer(data['text'], return_tensors="pt", truncation=True, padding=True).to(device)
outputs = model(**inputs)
predictions = torch.nn.functional.softmax(outputs.logits, dim=-1)
result = {"positive": float(predictions[0][1]), "negative": float(predictions[0][0])}
return jsonify(result)
if __name__ == "__main__":
app.run(host='0.0.0.0', port=8080)
相关推荐


















