This commit is contained in:
2026-03-11 16:49:00 +08:00
commit 52d7d14795
53 changed files with 4991 additions and 0 deletions

47
README-ToolHub.md Normal file
View File

@@ -0,0 +1,47 @@
# Qwen3.5-9B ToolHub
基于 Qwen3.5-9B 多模态模型 + 可调用工具的本地一体化部署方案
✅联网搜索、看图、读文件
模型推理在本机 GPU 完成,可通过 API 接口使用
需要 Windows 10/11、NVIDIA 显卡(≥ 8 GB 显存、Python 3.10+
## 启动
```
1. 双击 bootstrap.bat ← 首次安装,下载约 6 GB 模型
2. .\start_8080_toolhub_stack.cmd start
3. 浏览器打开 http://127.0.0.1:8080
停止:.\start_8080_toolhub_stack.cmd stop
```
每次启动需要 3060 秒加载模型。
## 其他路线
上面是 Windows 默认主线。如果你的情况不同,可以选择:
- **Docker Compose** — 已装好 Docker 且 GPU 容器可用的环境。`docker compose up --build` 即可。→ [详细说明](docs/DOCKER_COMPOSE.md)
- **WSL** — 已有 WSL 环境的用户。`./install.sh` + `./start_8080_toolhub_stack.sh start`,底层复用 Windows 主链路。
- **Q8 量化约占用10.2 GB** — 如果你的显存 ≥ 12 GB ,双击 `bootstrap_q8.bat`,脚本自动切换模型并下载。
## 能做什么
- 联网搜索,抓取网页,提炼摘要并附来源
- 上传图片直接提问,支持局部放大和以图搜图
- 只读浏览本机文件,让 AI 帮你看文档和日志
- 内置思维链,复杂问题可展开推理过程
- OpenAI 兼容 API`http://127.0.0.1:8080/v1`),可对接任意兼容客户端
## 文档
- [详细介绍](docs/QUICKSTART.md) — 安装、启动、配置、服务管理
- [常见问题](docs/TROUBLESHOOTING.md) — 排障指引
- [Docker Compose](docs/DOCKER_COMPOSE.md) — 容器化部署
## 致谢
- [Qwen3.5](https://github.com/QwenLM/Qwen3) — 通义千问多模态大模型
- [llama.cpp](https://github.com/ggml-org/llama.cpp) — 高性能 GGUF 推理引擎