QMD-Chinese 是专为中文语境深度改造的本地 RAG (检索增强生成) 命令行检索引擎。本分支在原版的基础上,彻底重写了中文分词与分块逻辑,并全面替换了最顶尖的中文开源大模型,旨在为 OpenClaw 等 AI 代理提供最极致的本地中文私有知识库支持。
本项目基于卓越的开源项目 [QMD (https://github.com/tobi/qmd)] 进行本地化改造。 核心的 RRF (倒数秩融合) 排序算法、CLI 架构及底层的向量混合检索逻辑均归功于原作者的出色工作。本分支仅针对中文 NLP 场景与模型依赖进行了深度重构与优化。向原作者致以最诚挚的感谢!
摒弃了原版对英文主导模型的依赖,本分支使用了当前地表最强的本地中文处理流水线:
Qwen2.5-1.5B-Instruct (极大提升中文口语化提问的命中率)BGE-M3 (智源顶配多语言向量模型,支持超长上下文)bge-reranker-v2-m3 (精准的二次语义排序)⚠️ 【强烈警告】:非常不建议在常规 VPS (如 1核1G / 2核4G 的云服务器) 上运行本项目。 多模型并发推理会瞬间耗尽 VPS 的内存并导致进程被系统 OOM 杀掉。
推荐运行环境:
node-llama-cpp,配置正确的 CUDA 加速后,检索与推理速度将有数十倍的提升。由于包含原生编译模块,请确保你的系统已安装 Node.js (推荐 v20+) 以及 git。
执行以下命令全局安装:
⚙️ OpenClaw 集成与配置 将 QMD-Chinese 作为 OpenClaw 的本地记忆后端,请在 OpenClaw 的 Settings -> Memory 中参考以下截图进行精确配置:
Memory Backend: 必须选择 qmd。
QMD Binary: 必须填入本程序的绝对路径 (可通过在终端执行 which qmd 获取,例如 /home/xxx/.nvm/versions/node/v24.14.0/bin/qmd)。
Include Default Memory: 开启 (绿色)。

QMD Session Indexing: 开启 (绿色),允许索引日常对话。
QMD Session Retention (days): 强烈建议设置为 30 或 60 天,定期清理无用废话,保持向量数据库的信噪比。

🛠️ CUDA 硬件加速状态验证与排错 安装完成后,在终端运行以下命令检查运行状态: qmd status
✅ 成功的状态: 如果你看到 Device 区域显示 GPU: cuda (offloading: yes) 并且正确识别了你的显卡型号(如下图的 RTX 5070 Ti),说明 CUDA 加速已完美开启!

❌ 失败的排错指南: 如果显示使用的是 CPU 或者提示缺少 CUDA,请检查以下几点:
Cmake 是否缺失: 底层的原生模块需要编译环境。请在终端执行 sudo apt-get install cmake build-essential (Ubuntu/Debian) 来安装必备工具。
驱动与 Toolkit: 确保 WSL2 或 Linux 系统内已正确安装 NVIDIA 驱动及 CUDA Toolkit。
耐心等待编译: 第一次 npm install 时,底层的 llama.cpp 需要根据你的显卡架构实时编译 CUDA 驱动代码,这可能会消耗几分钟到十几分钟的时间,请耐心等待编译完成。