支持的操作系统
CSGHub-Lite 支持在多种操作系统和硬件平台上运行。本文档列出了经过测试和验证支持的环境。
操作系统支持
| 操作系统 | 支持状态 | 架构 | 备注 |
|---|---|---|---|
| Ubuntu | ✅ 支持 | x86_64, ARM64 | 推荐使用 LTS 版本(如 20.04、22.04、24.04) |
| Debian | ✅ 支持 | x86_64, ARM64 | 推荐使用稳定版 |
| CentOS | ✅ 支持 | x86_64, ARM64 | 支持 CentOS 7/8/9 Stream |
| macOS | ✅ 支持 | x86_64, Apple Silicon | 支持 Intel Mac 和 Apple M 系列芯片 |
| Windows | ✅ 支持 | x86_64 | 支持 Windows 10/11,建议使用 PowerShell |
硬件加速器支持
CSGHub-Lite 支持多种硬件加速器以提升推理性能:
| 硬件 | 支持状态 | 备注 |
|---|---|---|
| Mac mini | ✅ 支持 | Apple Silicon 原生支持 Metal 加速 |
| AMD Instinct MI50 | ✅ 支持 | AMD ROCm 支持 |
| AMD Instinct MI200 / MI250 | ✅ 支持 | AMD ROCm 支持 |
| NVIDIA GPU 系列 | ✅ 支持 | 支持 CUDA,推荐使用支持 CUDA 的显卡 |
系统要求
最低配置
- CPU: 4 核心及以上
- 内存: 8 GB RAM(运行小模型如 Qwen3-0.6B)
- 存储: 10 GB 可用磁盘空间
- 网络: 稳定的网络连接(用于下载模型)
推荐配置
- CPU: 8 核心及以上
- 内存: 16 GB RAM 或更多(运行大模型)
- GPU: NVIDIA GPU(CUDA 支持)或 Apple Silicon Mac
- 存储: 50 GB 以上可用磁盘空间(存储多个模型)
依赖项
必需依赖
- llama-server: 推理后端,安装脚本会自动安装
- macOS:
brew install llama.cpp - Linux/Windows: 从 llama.cpp releases 下载
- macOS:
可选依赖
- Python 3.10+: 用于 SafeTensors 模型转换
- PyTorch: SafeTensors 转换所需
- safetensors: SafeTensors 格式支持
- transformers: 模型转换支持
安装可选依赖:
pip3 install torch safetensors gguf transformers
安装验证
安装完成后,可以通过以下命令验证系统支持:
# 查看版本信息
csghub-lite --version
# 测试运行一个小模型
csghub-lite run Qwen/Qwen3-0.6B-GGUF
常见问题
Windows 上安装失败
确保使用 PowerShell 以管理员身份运行安装脚本。如果遇到执行策略限制,请先运行:
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
Linux 上缺少依赖
如果安装脚本未能自动安装 llama-server,请手动安装:
# Ubuntu/Debian
sudo apt-get update
sudo apt-get install -y llama.cpp
# 或从源码编译
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp && make
macOS 上 Apple Silicon 支持问题
确保安装了 Xcode Command Line Tools:
xcode-select --install
GPU 加速不生效
- NVIDIA GPU: 确保安装了最新的 CUDA 驱动和工具包
- AMD GPU: 确保安装了 ROCm 支持
- Apple Silicon: Metal 加速默认启用,无需额外配置
不再支持的系统版本
以下系统版本已停止官方支持:
| 系统 | 最后支持版本 | 说明 |
|---|---|---|
| Windows 7/8 | - | 不支持,请升级到 Windows 10/11 |
| macOS 10.x | - | 需要 macOS 11 (Big Sur) 或更高版本 |
| Ubuntu 18.04 | - | 建议升级到 LTS 版本 |
反馈与支持
如果您在特定系统上遇到问题,请通过以下方式获取帮助: