REST API 参考
CSGHub-Lite 默认会在 localhost:11435 端口启动服务,提供与 Ollama 及 OpenAI 兼容的 API 接口。
API 概况
| 方法 | 路径 | 说明 |
|---|---|---|
GET | /api/health | 服务健康检查 |
GET | /api/tags | 列出本地所有模型 |
GET | /api/ps | 查看当前正在运行的模型 |
POST | /api/show | 显示特定模型的详细信息 |
POST | /api/pull | 拉取模型(支持流式响应) |
POST | /api/stop | 停止并卸载模型 |
DELETE | /api/delete | 删除本地模型文件 |
POST | /api/generate | 文本生成(支持交互式流) |
POST | /api/chat | 聊天对话生成模型(支持流) |
POST | /v1/chat/completions | OpenAI 兼容的聊天接口 |
GET | /v1/models | OpenAI 兼容的模型列表接口 |
接口示例
聊天接口 (Chat API)
curl http://localhost:11435/api/chat -d '{
"model": "Qwen/Qwen3-0.6B-GGUF",
"messages": [{"role": "user", "content": "你好!"}]
}'
非流式文本生成 (Generate API)
curl http://localhost:11435/api/generate -d '{
"model": "Qwen/Qwen3-0.6B-GGUF",
"prompt": "用一句话写一首关于编程的诗",
"stream": false
}'
获取正在运行的模型
curl http://localhost:11435/api/ps
停止模型
curl -X POST http://localhost:11435/api/stop -d '{"model": "Qwen/Qwen3-0.6B-GGUF"}'
OpenAI 兼容聊天接口 (Bash)
curl http://localhost:11435/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "Qwen/Qwen3-0.6B-GGUF",
"messages": [{"role": "user", "content": "你好!"}],
"stream": false
}'
也兼容任何 OpenAI 客户端包(如 Python 的 openai 库):
OpenAI 兼容调用 (Python)
from openai import OpenAI
client = OpenAI(base_url="http://localhost:11435/v1", api_key="unused")
response = client.chat.completions.create(
model="Qwen/Qwen3-0.6B-GGUF",
messages=[{"role": "user", "content": "你好,请自我介绍一下。"}]
)
print(response.choices[0].message.content)