跳到主要内容

REST API 参考

CSGHub-Lite 默认会在 localhost:11435 端口启动服务,提供与 Ollama 及 OpenAI 兼容的 API 接口。

API 概况

方法路径说明
GET/api/health服务健康检查
GET/api/tags列出本地所有模型
GET/api/ps查看当前正在运行的模型
POST/api/show显示特定模型的详细信息
POST/api/pull拉取模型(支持流式响应)
POST/api/stop停止并卸载模型
DELETE/api/delete删除本地模型文件
POST/api/generate文本生成(支持交互式流)
POST/api/chat聊天对话生成模型(支持流)
POST/v1/chat/completionsOpenAI 兼容的聊天接口
GET/v1/modelsOpenAI 兼容的模型列表接口

接口示例

聊天接口 (Chat API)

curl http://localhost:11435/api/chat -d '{
"model": "Qwen/Qwen3-0.6B-GGUF",
"messages": [{"role": "user", "content": "你好!"}]
}'

非流式文本生成 (Generate API)

curl http://localhost:11435/api/generate -d '{
"model": "Qwen/Qwen3-0.6B-GGUF",
"prompt": "用一句话写一首关于编程的诗",
"stream": false
}'

获取正在运行的模型

curl http://localhost:11435/api/ps

OpenAI 兼容调用 (Python)

from openai import OpenAI

client = OpenAI(base_url="http://localhost:11435/v1", api_key="unused")

response = client.chat.completions.create(
model="Qwen/Qwen3-0.6B-GGUF",
messages=[{"role": "user", "content": "你好,请自我介绍一下。"}]
)

print(response.choices[0].message.content)