Skip to main content
Glama

MCP-Ragdocs

by qpd-v

MCP-Ragdocs

模型上下文协议 (MCP) 服务器,支持使用向量数据库 (Qdrant) 进行文档的语义搜索和检索。此服务器允许您从 URL 或本地文件添加文档,然后使用自然语言查询进行搜索。

快速安装指南

  1. 全局安装包:
    npm install -g @qpd-v/mcp-server-ragdocs
  2. 启动 Qdrant(使用 Docker):
    docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  3. 确保 Ollama 使用默认嵌入模型运行:
    ollama pull nomic-embed-text
  4. 添加到您的配置文件:
    • 对于 Cline: %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
    • 对于 Roo-Code: %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
    • 对于 Claude 桌面: %AppData%\Claude\claude_desktop_config.json
    { "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }
  5. 验证安装:
    # Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text

版本

当前版本:0.1.6

特征

  • 从 URL 或本地文件添加文档
  • 将文档存储在向量数据库中以进行语义搜索
  • 使用自然语言搜索文档
  • 列出所有文档来源

安装

使用 npm 全局安装:

npm install -g @qpd-v/mcp-server-ragdocs

这将在您的全局 npm 目录中安装服务器,您将需要它来完成下面的配置步骤。

要求

  • Node.js 16 或更高版本
  • Qdrant(本地或云端)
  • 以下其中之一用于嵌入:
    • Ollama 在本地运行(默认,免费)
    • OpenAI API 密钥(可选,付费)

Qdrant 设置选项

选项 1:本地 Qdrant

  1. 使用 Docker(推荐):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  1. 或者从Qdrant 网站下载

选项 2:Qdrant Cloud

  1. Qdrant Cloud创建帐户
  2. 创建新集群
  3. 从仪表板获取集群 URL 和 API 密钥
  4. 在您的配置中使用这些(请参阅下面的配置部分)

配置

该服务器可与 Cline/Roo 和 Claude Desktop 一起使用。两者的配置略有不同:

克莱恩配置

添加到您的 Cline 设置文件( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json )和/或添加到您的 Roo-Code 设置文件( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ):

  1. 使用 npm global install(推荐):
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

对于 OpenAI 而不是 Ollama:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. 使用本地开发设置:
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Claude桌面配置

添加到您的 Claude Desktop 配置文件:

  • Windows: %AppData%\Claude\claude_desktop_config.json
  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  1. 使用 Ollama 进行 Windows 安装(使用完整路径):
{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

使用 OpenAI 的 Windows 设置:

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. 使用 Ollama 设置 macOS:
{ "mcpServers": { "ragdocs": { "command": "/usr/local/bin/node", "args": [ "/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Qdrant 云配置

对于 Cline 或 Claude Desktop,使用 Qdrant Cloud 时,修改 env 部分:

与 Ollama 一起:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } }

使用 OpenAI:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } }

环境变量

Qdrant 配置
嵌入配置
  • EMBEDDING_PROVIDER (可选):在“ollama”(默认)或“openai”之间选择
  • EMBEDDING_MODEL (可选):
    • 对于 Ollama:默认为“nomic-embed-text”
    • 对于 OpenAI:默认为“text-embedding-3-small”
  • OLLAMA_URL (可选): 您的 Ollama 实例的 URL (默认为http://localhost:11434 )
  • OPENAI_API_KEY (使用 OpenAI 时需要):您的 OpenAI API 密钥

可用工具

  1. add_documentation
    • 将文档从 URL 添加到 RAG 数据库
    • 参数:
      • url :要获取的文档的 URL
  2. search_documentation
    • 搜索存储的文档
    • 参数:
      • query :搜索查询
      • limit (可选):返回的最大结果数(默认值:5)
  3. list_sources
    • 列出当前存储的所有文档源
    • 无需参数

示例用法

在 Claude Desktop 或任何其他兼容 MCP 的客户端中:

  1. 添加文档:
Add this documentation: https://docs.example.com/api
  1. 搜索文档:
Search the documentation for information about authentication
  1. 列出来源:
What documentation sources are available?

发展

  1. 克隆存储库:
git clone https://github.com/qpd-v/mcp-server-ragdocs.git cd mcp-server-ragdocs
  1. 安装依赖项:
npm install
  1. 构建项目:
npm run build
  1. 本地运行:
npm start

执照

麻省理工学院

故障排除

常见问题

  1. Qdrant 连接错误
    Error: Failed to connect to Qdrant at http://localhost:6333
    • 检查 Docker 是否正在运行
    • 验证 Qdrant 容器是否正在运行: docker ps | grep qdrant
    • 尝试重启容器
  2. Ollama 模型失踪
    Error: Model nomic-embed-text not found
    • 运行: ollama pull nomic-embed-text
    • 验证模型是否已安装: ollama list
  3. 配置路径问题
    • Windows:将YOUR_USERNAME替换为您的实际 Windows 用户名
    • 检查文件权限
    • 验证路径是否存在
  4. npm 全局安装问题
    • 尝试使用管理员权限安装
    • 检查 npm 是否在 PATH 中: npm -v
    • 验证全局安装: npm list -g @qpd-v/mcp-server-ragdocs

对于其他问题,请查看:

  • Docker 日志: docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)
  • Ollama 状态: ollama list
  • Node.js 版本: node -v (应为 16 或更高版本)

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

模型上下文协议 (MCP) 服务器,支持使用向量数据库 (Qdrant) 进行文档的语义搜索和检索。此服务器允许您从 URL 或本地文件添加文档,然后使用自然语言查询进行搜索。

  1. 快速安装指南
    1. 版本
      1. 特征
        1. 安装
          1. 要求
            1. Qdrant 设置选项
              1. 选项 1:本地 Qdrant
              2. 选项 2:Qdrant Cloud
            2. 配置
              1. 克莱恩配置
              2. Claude桌面配置
              3. Qdrant 云配置
              4. 环境变量
            3. 可用工具
              1. 示例用法
                1. 发展
                  1. 执照
                    1. 故障排除
                      1. 常见问题
                    2. 贡献

                      Related MCP Servers

                      • -
                        security
                        A
                        license
                        -
                        quality
                        A Model Context Protocol (MCP) server that enables LLMs to interact directly the documents that they have on-disk through agentic RAG and hybrid search in LanceDB. Ask LLMs questions about the dataset as a whole or about specific documents.
                        Last updated -
                        12
                        31
                        TypeScript
                        MIT License
                        • Apple
                      • -
                        security
                        A
                        license
                        -
                        quality
                        A tool for Model Context Protocol (MCP) that allows you to analyze web content and add it to your knowledge base, storing content as Markdown files for easy viewing with tools like Obsidian.
                        Last updated -
                        6
                        Python
                        MIT License
                      • A
                        security
                        A
                        license
                        A
                        quality
                        🔍 A Model Context Protocol (MCP) server providing unified access to multiple search engines (Tavily, Brave, Kagi), AI tools (Perplexity, FastGPT), and content processing services (Jina AI, Kagi). Combines search, AI responses, content processing, and enhancement features through a single interface.
                        Last updated -
                        15
                        109
                        88
                        TypeScript
                        MIT License
                        • Linux
                      • A
                        security
                        A
                        license
                        A
                        quality
                        A documentation server based on MCP protocol designed for various development frameworks that provides multi-threaded document crawling, local document loading, keyword searching, and document detail retrieval.
                        Last updated -
                        2
                        37
                        JavaScript
                        MIT License
                        • Apple
                        • Linux

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/qpd-v/mcp-ragdocs'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server