MCP-Ragdocs
MCP-Ragdocs
模型上下文协议 (MCP) 服务器,支持使用向量数据库 (Qdrant) 进行文档的语义搜索和检索。此服务器允许您从 URL 或本地文件添加文档,然后使用自然语言查询进行搜索。
快速安装指南
全局安装包:
npm install -g @qpd-v/mcp-server-ragdocs启动 Qdrant(使用 Docker):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant确保 Ollama 使用默认嵌入模型运行:
ollama pull nomic-embed-text添加到您的配置文件:
对于 Cline:
%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json对于 Roo-Code:
%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json对于 Claude 桌面:
%AppData%\Claude\claude_desktop_config.json
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }验证安装:
# Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text
Related MCP server: MCP Server for Qdrant
版本
当前版本:0.1.6
特征
从 URL 或本地文件添加文档
将文档存储在向量数据库中以进行语义搜索
使用自然语言搜索文档
列出所有文档来源
安装
使用 npm 全局安装:
npm install -g @qpd-v/mcp-server-ragdocs这将在您的全局 npm 目录中安装服务器,您将需要它来完成下面的配置步骤。
要求
Node.js 16 或更高版本
Qdrant(本地或云端)
以下其中之一用于嵌入:
Ollama 在本地运行(默认,免费)
OpenAI API 密钥(可选,付费)
Qdrant 设置选项
选项 1:本地 Qdrant
使用 Docker(推荐):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant或者从Qdrant 网站下载
选项 2:Qdrant Cloud
在Qdrant Cloud创建帐户
创建新集群
从仪表板获取集群 URL 和 API 密钥
在您的配置中使用这些(请参阅下面的配置部分)
配置
该服务器可与 Cline/Roo 和 Claude Desktop 一起使用。两者的配置略有不同:
克莱恩配置
添加到您的 Cline 设置文件( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json )和/或添加到您的 Roo-Code 设置文件( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ):
使用 npm global install(推荐):
{
"mcpServers": {
"ragdocs": {
"command": "node",
"args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}对于 OpenAI 而不是 Ollama:
{
"mcpServers": {
"ragdocs": {
"command": "node",
"args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-api-key"
}
}
}
}使用本地开发设置:
{
"mcpServers": {
"ragdocs": {
"command": "node",
"args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}Claude桌面配置
添加到您的 Claude Desktop 配置文件:
Windows:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.json
使用 Ollama 进行 Windows 安装(使用完整路径):
{
"mcpServers": {
"ragdocs": {
"command": "C:\\Program Files\\nodejs\\node.exe",
"args": [
"C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js"
],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}使用 OpenAI 的 Windows 设置:
{
"mcpServers": {
"ragdocs": {
"command": "C:\\Program Files\\nodejs\\node.exe",
"args": [
"C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js"
],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-api-key"
}
}
}
}使用 Ollama 设置 macOS:
{
"mcpServers": {
"ragdocs": {
"command": "/usr/local/bin/node",
"args": [
"/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"
],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}Qdrant 云配置
对于 Cline 或 Claude Desktop,使用 Qdrant Cloud 时,修改 env 部分:
与 Ollama 一起:
{
"env": {
"QDRANT_URL": "https://your-cluster-url.qdrant.tech",
"QDRANT_API_KEY": "your-qdrant-api-key",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}使用 OpenAI:
{
"env": {
"QDRANT_URL": "https://your-cluster-url.qdrant.tech",
"QDRANT_API_KEY": "your-qdrant-api-key",
"EMBEDDING_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-api-key"
}
}环境变量
Qdrant 配置
QDRANT_URL(必需):您的 Qdrant 实例的 URLQDRANT_API_KEY(云所需):您的 Qdrant Cloud API 密钥
嵌入配置
EMBEDDING_PROVIDER(可选):在“ollama”(默认)或“openai”之间选择EMBEDDING_MODEL(可选):对于 Ollama:默认为“nomic-embed-text”
对于 OpenAI:默认为“text-embedding-3-small”
OLLAMA_URL(可选): 您的 Ollama 实例的 URL (默认为http://localhost:11434 )OPENAI_API_KEY(使用 OpenAI 时需要):您的 OpenAI API 密钥
可用工具
add_documentation将文档从 URL 添加到 RAG 数据库
参数:
url:要获取的文档的 URL
search_documentation搜索存储的文档
参数:
query:搜索查询limit(可选):返回的最大结果数(默认值:5)
list_sources列出当前存储的所有文档源
无需参数
示例用法
在 Claude Desktop 或任何其他兼容 MCP 的客户端中:
添加文档:
Add this documentation: https://docs.example.com/api搜索文档:
Search the documentation for information about authentication列出来源:
What documentation sources are available?发展
克隆存储库:
git clone https://github.com/qpd-v/mcp-server-ragdocs.git
cd mcp-server-ragdocs安装依赖项:
npm install构建项目:
npm run build本地运行:
npm start执照
麻省理工学院
故障排除
常见问题
Qdrant 连接错误
Error: Failed to connect to Qdrant at http://localhost:6333检查 Docker 是否正在运行
验证 Qdrant 容器是否正在运行:
docker ps | grep qdrant尝试重启容器
Ollama 模型失踪
Error: Model nomic-embed-text not found运行:
ollama pull nomic-embed-text验证模型是否已安装:
ollama list
配置路径问题
Windows:将
YOUR_USERNAME替换为您的实际 Windows 用户名检查文件权限
验证路径是否存在
npm 全局安装问题
尝试使用管理员权限安装
检查 npm 是否在 PATH 中:
npm -v验证全局安装:
npm list -g @qpd-v/mcp-server-ragdocs
对于其他问题,请查看:
Docker 日志:
docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)Ollama 状态:
ollama listNode.js 版本:
node -v(应为 16 或更高版本)
贡献
欢迎贡献代码!欢迎提交 Pull 请求。
This server cannot be installed
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/qpd-v/mcp-ragdocs'
If you have feedback or need assistance with the MCP directory API, please join our Discord server