Skip to main content
Glama

MCP-Ragdocs

模型上下文协议 (MCP) 服务器,支持使用向量数据库 (Qdrant) 进行文档的语义搜索和检索。此服务器允许您从 URL 或本地文件添加文档,然后使用自然语言查询进行搜索。

快速安装指南

  1. 全局安装包:

    npm install -g @qpd-v/mcp-server-ragdocs
  2. 启动 Qdrant(使用 Docker):

    docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  3. 确保 Ollama 使用默认嵌入模型运行:

    ollama pull nomic-embed-text
  4. 添加到您的配置文件:

    • 对于 Cline: %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json

    • 对于 Roo-Code: %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json

    • 对于 Claude 桌面: %AppData%\Claude\claude_desktop_config.json

    { "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }
  5. 验证安装:

    # Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text

Related MCP server: MCP Server for Qdrant

版本

当前版本:0.1.6

特征

  • 从 URL 或本地文件添加文档

  • 将文档存储在向量数据库中以进行语义搜索

  • 使用自然语言搜索文档

  • 列出所有文档来源

安装

使用 npm 全局安装:

npm install -g @qpd-v/mcp-server-ragdocs

这将在您的全局 npm 目录中安装服务器,您将需要它来完成下面的配置步骤。

要求

  • Node.js 16 或更高版本

  • Qdrant(本地或云端)

  • 以下其中之一用于嵌入:

    • Ollama 在本地运行(默认,免费)

    • OpenAI API 密钥(可选,付费)

Qdrant 设置选项

选项 1:本地 Qdrant

  1. 使用 Docker(推荐):

docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  1. 或者从Qdrant 网站下载

选项 2:Qdrant Cloud

  1. Qdrant Cloud创建帐户

  2. 创建新集群

  3. 从仪表板获取集群 URL 和 API 密钥

  4. 在您的配置中使用这些(请参阅下面的配置部分)

配置

该服务器可与 Cline/Roo 和 Claude Desktop 一起使用。两者的配置略有不同:

克莱恩配置

添加到您的 Cline 设置文件( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json )和/或添加到您的 Roo-Code 设置文件( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ):

  1. 使用 npm global install(推荐):

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

对于 OpenAI 而不是 Ollama:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. 使用本地开发设置:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Claude桌面配置

添加到您的 Claude Desktop 配置文件:

  • Windows: %AppData%\Claude\claude_desktop_config.json

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

  1. 使用 Ollama 进行 Windows 安装(使用完整路径):

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

使用 OpenAI 的 Windows 设置:

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. 使用 Ollama 设置 macOS:

{ "mcpServers": { "ragdocs": { "command": "/usr/local/bin/node", "args": [ "/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Qdrant 云配置

对于 Cline 或 Claude Desktop,使用 Qdrant Cloud 时,修改 env 部分:

与 Ollama 一起:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } }

使用 OpenAI:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } }

环境变量

Qdrant 配置

嵌入配置

  • EMBEDDING_PROVIDER (可选):在“ollama”(默认)或“openai”之间选择

  • EMBEDDING_MODEL (可选):

    • 对于 Ollama:默认为“nomic-embed-text”

    • 对于 OpenAI:默认为“text-embedding-3-small”

  • OLLAMA_URL (可选): 您的 Ollama 实例的 URL (默认为http://localhost:11434 )

  • OPENAI_API_KEY (使用 OpenAI 时需要):您的 OpenAI API 密钥

可用工具

  1. add_documentation

    • 将文档从 URL 添加到 RAG 数据库

    • 参数:

      • url :要获取的文档的 URL

  2. search_documentation

    • 搜索存储的文档

    • 参数:

      • query :搜索查询

      • limit (可选):返回的最大结果数(默认值:5)

  3. list_sources

    • 列出当前存储的所有文档源

    • 无需参数

示例用法

在 Claude Desktop 或任何其他兼容 MCP 的客户端中:

  1. 添加文档:

Add this documentation: https://docs.example.com/api
  1. 搜索文档:

Search the documentation for information about authentication
  1. 列出来源:

What documentation sources are available?

发展

  1. 克隆存储库:

git clone https://github.com/qpd-v/mcp-server-ragdocs.git cd mcp-server-ragdocs
  1. 安装依赖项:

npm install
  1. 构建项目:

npm run build
  1. 本地运行:

npm start

执照

麻省理工学院

故障排除

常见问题

  1. Qdrant 连接错误

    Error: Failed to connect to Qdrant at http://localhost:6333
    • 检查 Docker 是否正在运行

    • 验证 Qdrant 容器是否正在运行: docker ps | grep qdrant

    • 尝试重启容器

  2. Ollama 模型失踪

    Error: Model nomic-embed-text not found
    • 运行: ollama pull nomic-embed-text

    • 验证模型是否已安装: ollama list

  3. 配置路径问题

    • Windows:将YOUR_USERNAME替换为您的实际 Windows 用户名

    • 检查文件权限

    • 验证路径是否存在

  4. npm 全局安装问题

    • 尝试使用管理员权限安装

    • 检查 npm 是否在 PATH 中: npm -v

    • 验证全局安装: npm list -g @qpd-v/mcp-server-ragdocs

对于其他问题,请查看:

  • Docker 日志: docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)

  • Ollama 状态: ollama list

  • Node.js 版本: node -v (应为 16 或更高版本)

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/qpd-v/mcp-ragdocs'

If you have feedback or need assistance with the MCP directory API, please join our Discord server