fastapi项目调用llm linux
时间: 2024-12-06 20:14:40 浏览: 17
Python调用讯飞星火LLM教程2(共2)
FastAPI是一个轻量级的高性能Web框架,它允许你快速构建现代、异步的RESTful APIs。LLM (Language Model),通常指像通义千问这样的语言模型,它们是基于深度学习的模型,用于生成文本、回答问题等。
如果你想在FastAPI项目中调用Linux命令(LLM在这里可能是误解,因为通常不会直接将LLM应用到操作系统命令上),你可以通过Python的subprocess模块来实现。以下是一个简单的示例:
```python
from fastapi import FastAPI
import subprocess
app = FastAPI()
@app.get("/run_command")
async def run_linux_command(command: str):
# 使用subprocess.run执行Linux命令
result = await asyncio.get_event_loop().run_in_executor(None, subprocess.run, command, shell=True, capture_output=True)
if result.returncode == 0:
return {"status": "success", "output": result.stdout.decode()}
else:
return {"status": "error", "message": f"Command failed with code {result.returncode}"}
```
在这个例子中,当你发送一个GET请求到`/run_command`并提供一个命令作为查询参数时,FastAPI会执行该命令并将结果返回给客户端。
阅读全文