Files
2026-03-11 16:49:00 +08:00

153 lines
5.1 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# Qwen3.5-9B ToolHub Enhanced Version
> **版本标识****原版基础功能 + 二开增强模块** | **Qwen3.5 多模态工具链本地一体化部署方案**
基于 Qwen3.5-9B 多模态模型 + 可调用工具的本地一体化部署方案。本项目是在原版基础上深度二次开发,实现了 AI 从"只能看"到"**能写、能记、能感知**"的质变。
---
## 📌 项目定位与声明
### 基础定位
- ✅联网搜索、看图、读文件(原版能力)
- **模型推理在本机 GPU 完成,可通过 API 接口使用**
- 需要 Windows 10/11、NVIDIA 显卡≥8GB 显存、Python 3.10+
### 声明
本版本由 **老王 (Lao Wang)** 及 AI 协作伙伴共同完成,旨在探索本地小规模参数模型在实际办公场景中的生产力极限。
开源致谢:[Qwen3.5](https://github.com/QwenLM/Qwen3) | [llama.cpp](https://github.com/ggml-org/llama.cpp)
---
## 🚀 核心增强功能(二开版独有)
### 1. ⚡ 原子化物理写入引擎 (Atomic Write Engine)
- **功能突破**:新增 `write_tools.py` 模块,赋予模型真正的"物理写权限"
- **静默落盘**:通过 `.env`环境变量配置 `WRITEABLE_FS_ROOTS`白名单,实现安全、极速的自动化文件保存
- **沙盒保护**:严格限制写入目录,确保系统核心文件的安全
### 2. 🧠 "睁眼即知"的持久化记忆热注入 (Persistent Memory Injection)
- **长期记忆库**:独立开发 `memory_tools.py`,支持基于 JSON 的偏好、身份和习惯存储
- **热加载技术**:重构 `toolhub_gateway_agent.py`,在每一轮对话初始化时,将 `memory.json`内容动态注入 System Prompt
- **零开销感知**AI 无需主动翻阅本子,即可毫秒级感知用户昵称(如"老王")、特定排版偏好(如 Markdown等重要信息
### 3. 🛡️ 反侦察网页抓取增强 (Robust Web Fetcher)
- **HTTP 429 修复**:解决了原版抓取 GitHub 等站点时频发的 HTTP 429 错误
- **技术细节**:集成主流浏览器 User-Agent伪装引入指数补偿重试逻辑
### 4. ⏰ 实时环境感知系统
- **时效性补全**:动态注入系统实时时间、星期及运行环境上下文,显著提升处理时间敏感型指令的准确度
---
## ✅ 完整功能清单(合并版)
| 能力类别 | 基础功能 (原版) | 增强功能 (二开) |
|---------|-----------------|---------------|
| **联网搜索** | ✅网页抓取、摘要提炼、附来源链接 | ✅反爬优化429错误自动重试 |
| **图片处理** | ✅看图提问、局部放大、以图搜图 | - |
| **文件操作** | ✅只读浏览本机文件/日志 | ⭐原子化写入(白名单沙盒) |
| **记忆管理** | 无长期记忆 | ⭐JSON持久化偏好库 |
| **环境感知** | 基础上下文 | ⭐实时时间/星期动态注入 |
| **API接口** | ✅OpenAI兼容 API (v1) | - |
---
## 🛠️ 安装与配置(完整流程)
### 主线部署Windows 默认方式(推荐新手)
#### 首次安装约6GB模型
```bash
# 方法一:标准启动脚本(双击运行)
bootstrap.bat
# 方法二Q8量化版显存≥12GB占用约10.2GB
bootstrap_q8.bat
```
#### 启动服务
```bash
.\start_8080_toolhub_stack.cmd start
# 浏览器访问 http://127.0.0.1:8080
停止:.\start_8080_toolhub_stack.cmd stop
```
> ⚠️ **每次启动需要3060秒加载模型**
---
### 🔧 增强配置(二开版专属)
`.env`文件中添加以下配置以启用增强功能:
```env
# =========================================
# 【二开版】增强功能开关与路径配置
# =========================================
# ✅ 开启文件写入功能
ENABLE_FILE_WRITE=True
# 📂 写入权限白名单(沙盒保护)
WRITEABLE_FS_ROOTS=E:\AI_Workspace
# 💾 记忆文件存储路径
MEMORY_FILE_PATH=./.tmp/super_agent_data/memory.json
```
---
### 其他部署路线
- **🧊 WSL 模式** — 已有WSL环境的用户
```bash
./install.sh + ./start_8080_toolhub_stack.sh start
```
底层复用Windows主链路适合双系统开发场景。
---
## 📖 文档导航
| 章节 | 说明 | 路径 |
|------|------|------|
| [详细介绍](docs/QUICKSTART.md) | 安装、启动、配置、服务管理 | docs/QUICKSTART.md |
| [常见问题](docs/TROUBLESHOOTING.md) | 排障指引含HTTP 429处理 | docs/TROUBLESHOOTING.md |
| [Docker Compose](docs/DOCKER_COMPOSE.md) | 容器化部署指南 | docs/DOCKER_COMPOSE.md |
---
## 📊 系统实时状态(环境上下文)
```text
当前时间:🕒 2026-03-11 星期三 16:29:03 CST
运行模式:本地 GPU 推理 + OpenAI API兼容层
API端点http://127.0.0.1:8080/v1
```
---
## ⚙️ 启动命令速查表
| 操作 | Windows命令 |
|------|------------|
| **首次安装** | `bootstrap.bat` |
| **Q8量化版** | `bootstrap_q8.bat` (≥12GB显存) |
| **启动服务** | `.\start_8080_toolhub_stack.cmd start` |
| **停止服务** | `.\start_8080_toolhub_stack.cmd stop` |
---
## 🤝 开源致谢
- **[Qwen3.5](https://github.com/QwenLM/Qwen3)** — 通义千问多模态大模型
- **[llama.cpp](https://github.com/ggml-org/llama.cpp)** — 高性能GGUF推理引擎
---
祝你调试愉快!🚀