Utilizes LangChain's text processing tools for document chunking, vector storage, and retrieval operations in the RAG pipeline.
Enables RAG (Retrieval-Augmented Generation) capabilities using OpenAI's GPT models for question answering and text-embedding-ada-002 for document vectorization and semantic search.
Chalee MCP RAG 🤖
一个基于 Model Context Protocol (MCP) 的 **RAG(检索增强生成)**服务器,提供文档处理、向量存储和智能问答功能。
✨ 特性
🔧 标准化 MCP 协议:遵循 Anthropic MCP 标准,可与 Claude Desktop 等客户端集成
📚 智能文档处理:自动分块、向量化存储
🔍 语义检索:基于余弦相似度的相关文档检索
💬 智能问答:结合检索上下文的准确回答生成
🛡️ 安全可靠:内置错误处理和参数验证
🚀 生产就绪:完整的配置和部署支持
🚀 快速开始
1. 克隆仓库
2. 安装依赖
3. 配置环境变量
4. 启动 MCP 服务器
5. 运行客户端演示
🛠️ 可用工具
MCP RAG 服务器提供以下 6 个核心工具:
工具名称 | 描述 | 参数 |
| 初始化 RAG Agent |
|
| 添加文档到知识库 |
|
| 智能问答 |
|
| 文档相似性搜索 |
|
| 获取知识库统计 | - |
| 清空知识库 | - |
📁 项目结构
🌐 与 Claude Desktop 集成
要在 Claude Desktop 中使用此 MCP 服务器,请在 Claude 配置文件中添加:
macOS
编辑 ~/Library/Application Support/Claude/claude_desktop_config.json:
Windows
编辑 %APPDATA%\\Claude\\claude_desktop_config.json:
📖 使用示例
基本用法
高级配置
🔧 配置选项
环境变量
变量名 | 描述 | 默认值 |
| OpenAI API 密钥 | 必需 |
| 文档分块大小 | 1000 |
| 分块重叠大小 | 200 |
| 最大检索文档数 | 3 |
| GPT 模型名称 | gpt-3.5-turbo |
| 嵌入模型名称 | text-embedding-ada-002 |
🧪 测试
🚀 部署
Docker 部署
进程管理
🔍 故障排除
常见问题
连接失败
确保 Node.js 版本 >= 16
检查依赖是否正确安装
验证 API 密钥是否有效
工具调用失败
确保先调用
initialize_rag检查参数格式是否正确
查看服务器日志获取详细错误信息
性能问题
减少
chunkSize或maxRetrievedDocs优化文档大小和数量
考虑使用外部向量数据库
调试模式
🌟 扩展功能
支持更多文档格式
持久化存储
📚 API 文档
initialize_rag
初始化 RAG Agent 实例。
add_document
向知识库添加文档。
ask_question
使用 RAG 技术回答问题。
🤝 贡献
欢迎提交 Issue 和 Pull Request!
Fork 项目
创建功能分支 (
git checkout -b feature/AmazingFeature)提交更改 (
git commit -m 'Add some AmazingFeature')推送到分支 (
git push origin feature/AmazingFeature)打开 Pull Request
📄 许可证
MIT License - 详见 LICENSE 文件
🙏 致谢
📞 支持
📧 Email: your-email@example.com
🐛 Issues: GitHub Issues
💬 Discussions: GitHub Discussions
⭐ 如果这个项目对你有帮助,请给它一个星标!