This commit is contained in:
2026-03-11 16:49:00 +08:00
commit 52d7d14795
53 changed files with 4991 additions and 0 deletions

152
README.md Normal file
View File

@@ -0,0 +1,152 @@
# Qwen3.5-9B ToolHub Enhanced Version
> **版本标识****原版基础功能 + 二开增强模块** | **Qwen3.5 多模态工具链本地一体化部署方案**
基于 Qwen3.5-9B 多模态模型 + 可调用工具的本地一体化部署方案。本项目是在原版基础上深度二次开发,实现了 AI 从"只能看"到"**能写、能记、能感知**"的质变。
---
## 📌 项目定位与声明
### 基础定位
- ✅联网搜索、看图、读文件(原版能力)
- **模型推理在本机 GPU 完成,可通过 API 接口使用**
- 需要 Windows 10/11、NVIDIA 显卡≥8GB 显存、Python 3.10+
### 声明
本版本由 **老王 (Lao Wang)** 及 AI 协作伙伴共同完成,旨在探索本地小规模参数模型在实际办公场景中的生产力极限。
开源致谢:[Qwen3.5](https://github.com/QwenLM/Qwen3) | [llama.cpp](https://github.com/ggml-org/llama.cpp)
---
## 🚀 核心增强功能(二开版独有)
### 1. ⚡ 原子化物理写入引擎 (Atomic Write Engine)
- **功能突破**:新增 `write_tools.py` 模块,赋予模型真正的"物理写权限"
- **静默落盘**:通过 `.env`环境变量配置 `WRITEABLE_FS_ROOTS`白名单,实现安全、极速的自动化文件保存
- **沙盒保护**:严格限制写入目录,确保系统核心文件的安全
### 2. 🧠 "睁眼即知"的持久化记忆热注入 (Persistent Memory Injection)
- **长期记忆库**:独立开发 `memory_tools.py`,支持基于 JSON 的偏好、身份和习惯存储
- **热加载技术**:重构 `toolhub_gateway_agent.py`,在每一轮对话初始化时,将 `memory.json`内容动态注入 System Prompt
- **零开销感知**AI 无需主动翻阅本子,即可毫秒级感知用户昵称(如"老王")、特定排版偏好(如 Markdown等重要信息
### 3. 🛡️ 反侦察网页抓取增强 (Robust Web Fetcher)
- **HTTP 429 修复**:解决了原版抓取 GitHub 等站点时频发的 HTTP 429 错误
- **技术细节**:集成主流浏览器 User-Agent伪装引入指数补偿重试逻辑
### 4. ⏰ 实时环境感知系统
- **时效性补全**:动态注入系统实时时间、星期及运行环境上下文,显著提升处理时间敏感型指令的准确度
---
## ✅ 完整功能清单(合并版)
| 能力类别 | 基础功能 (原版) | 增强功能 (二开) |
|---------|-----------------|---------------|
| **联网搜索** | ✅网页抓取、摘要提炼、附来源链接 | ✅反爬优化429错误自动重试 |
| **图片处理** | ✅看图提问、局部放大、以图搜图 | - |
| **文件操作** | ✅只读浏览本机文件/日志 | ⭐原子化写入(白名单沙盒) |
| **记忆管理** | 无长期记忆 | ⭐JSON持久化偏好库 |
| **环境感知** | 基础上下文 | ⭐实时时间/星期动态注入 |
| **API接口** | ✅OpenAI兼容 API (v1) | - |
---
## 🛠️ 安装与配置(完整流程)
### 主线部署Windows 默认方式(推荐新手)
#### 首次安装约6GB模型
```bash
# 方法一:标准启动脚本(双击运行)
bootstrap.bat
# 方法二Q8量化版显存≥12GB占用约10.2GB
bootstrap_q8.bat
```
#### 启动服务
```bash
.\start_8080_toolhub_stack.cmd start
# 浏览器访问 http://127.0.0.1:8080
停止:.\start_8080_toolhub_stack.cmd stop
```
> ⚠️ **每次启动需要3060秒加载模型**
---
### 🔧 增强配置(二开版专属)
`.env`文件中添加以下配置以启用增强功能:
```env
# =========================================
# 【二开版】增强功能开关与路径配置
# =========================================
# ✅ 开启文件写入功能
ENABLE_FILE_WRITE=True
# 📂 写入权限白名单(沙盒保护)
WRITEABLE_FS_ROOTS=E:\AI_Workspace
# 💾 记忆文件存储路径
MEMORY_FILE_PATH=./.tmp/super_agent_data/memory.json
```
---
### 其他部署路线
- **🧊 WSL 模式** — 已有WSL环境的用户
```bash
./install.sh + ./start_8080_toolhub_stack.sh start
```
底层复用Windows主链路适合双系统开发场景。
---
## 📖 文档导航
| 章节 | 说明 | 路径 |
|------|------|------|
| [详细介绍](docs/QUICKSTART.md) | 安装、启动、配置、服务管理 | docs/QUICKSTART.md |
| [常见问题](docs/TROUBLESHOOTING.md) | 排障指引含HTTP 429处理 | docs/TROUBLESHOOTING.md |
| [Docker Compose](docs/DOCKER_COMPOSE.md) | 容器化部署指南 | docs/DOCKER_COMPOSE.md |
---
## 📊 系统实时状态(环境上下文)
```text
当前时间:🕒 2026-03-11 星期三 16:29:03 CST
运行模式:本地 GPU 推理 + OpenAI API兼容层
API端点http://127.0.0.1:8080/v1
```
---
## ⚙️ 启动命令速查表
| 操作 | Windows命令 |
|------|------------|
| **首次安装** | `bootstrap.bat` |
| **Q8量化版** | `bootstrap_q8.bat` (≥12GB显存) |
| **启动服务** | `.\start_8080_toolhub_stack.cmd start` |
| **停止服务** | `.\start_8080_toolhub_stack.cmd stop` |
---
## 🤝 开源致谢
- **[Qwen3.5](https://github.com/QwenLM/Qwen3)** — 通义千问多模态大模型
- **[llama.cpp](https://github.com/ggml-org/llama.cpp)** — 高性能GGUF推理引擎
---
祝你调试愉快!🚀