Files
Qwen3.5-9B-ToolHub-Enhanced…/README-ToolHub.md
2026-03-11 16:49:00 +08:00

48 lines
1.7 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# Qwen3.5-9B ToolHub
基于 Qwen3.5-9B 多模态模型 + 可调用工具的本地一体化部署方案
✅联网搜索、看图、读文件
模型推理在本机 GPU 完成,可通过 API 接口使用
需要 Windows 10/11、NVIDIA 显卡(≥ 8 GB 显存、Python 3.10+
## 启动
```
1. 双击 bootstrap.bat ← 首次安装,下载约 6 GB 模型
2. .\start_8080_toolhub_stack.cmd start
3. 浏览器打开 http://127.0.0.1:8080
停止:.\start_8080_toolhub_stack.cmd stop
```
每次启动需要 3060 秒加载模型。
## 其他路线
上面是 Windows 默认主线。如果你的情况不同,可以选择:
- **Docker Compose** — 已装好 Docker 且 GPU 容器可用的环境。`docker compose up --build` 即可。→ [详细说明](docs/DOCKER_COMPOSE.md)
- **WSL** — 已有 WSL 环境的用户。`./install.sh` + `./start_8080_toolhub_stack.sh start`,底层复用 Windows 主链路。
- **Q8 量化约占用10.2 GB** — 如果你的显存 ≥ 12 GB ,双击 `bootstrap_q8.bat`,脚本自动切换模型并下载。
## 能做什么
- 联网搜索,抓取网页,提炼摘要并附来源
- 上传图片直接提问,支持局部放大和以图搜图
- 只读浏览本机文件,让 AI 帮你看文档和日志
- 内置思维链,复杂问题可展开推理过程
- OpenAI 兼容 API`http://127.0.0.1:8080/v1`),可对接任意兼容客户端
## 文档
- [详细介绍](docs/QUICKSTART.md) — 安装、启动、配置、服务管理
- [常见问题](docs/TROUBLESHOOTING.md) — 排障指引
- [Docker Compose](docs/DOCKER_COMPOSE.md) — 容器化部署
## 致谢
- [Qwen3.5](https://github.com/QwenLM/Qwen3) — 通义千问多模态大模型
- [llama.cpp](https://github.com/ggml-org/llama.cpp) — 高性能 GGUF 推理引擎