Files
Qwen3.5-9B-ToolHub-Enhanced…/README-ToolHub.md
2026-03-11 16:49:00 +08:00

1.7 KiB
Raw Permalink Blame History

Qwen3.5-9B ToolHub

基于 Qwen3.5-9B 多模态模型 + 可调用工具的本地一体化部署方案

联网搜索、看图、读文件

模型推理在本机 GPU 完成,可通过 API 接口使用

需要 Windows 10/11、NVIDIA 显卡(≥ 8 GB 显存、Python 3.10+

启动

1. 双击 bootstrap.bat   ← 首次安装,下载约 6 GB 模型
2. .\start_8080_toolhub_stack.cmd start
3. 浏览器打开 http://127.0.0.1:8080
停止:.\start_8080_toolhub_stack.cmd stop

每次启动需要 3060 秒加载模型。

其他路线

上面是 Windows 默认主线。如果你的情况不同,可以选择:

  • Docker Compose — 已装好 Docker 且 GPU 容器可用的环境。docker compose up --build 即可。→ 详细说明
  • WSL — 已有 WSL 环境的用户。./install.sh + ./start_8080_toolhub_stack.sh start,底层复用 Windows 主链路。
  • Q8 量化约占用10.2 GB — 如果你的显存 ≥ 12 GB ,双击 bootstrap_q8.bat,脚本自动切换模型并下载。

能做什么

  • 联网搜索,抓取网页,提炼摘要并附来源
  • 上传图片直接提问,支持局部放大和以图搜图
  • 只读浏览本机文件,让 AI 帮你看文档和日志
  • 内置思维链,复杂问题可展开推理过程
  • OpenAI 兼容 APIhttp://127.0.0.1:8080/v1),可对接任意兼容客户端

文档

致谢

  • Qwen3.5 — 通义千问多模态大模型
  • llama.cpp — 高性能 GGUF 推理引擎