local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Provides access to Apache Solr indexes, allowing hybrid search capabilities that combine keyword search precision with vector search semantic understanding across document collections.
Uses Ollama with nomic-embed-text to generate vector embeddings for documents, enabling semantic search capabilities in Solr collections.
Solr MCP
一个用于通过模型上下文协议 (MCP) 访问 Apache Solr 索引的 Python 包。此集成允许像 Claude 这样的 AI 助手针对您的 Solr 索引执行强大的搜索查询,并结合关键字和向量搜索功能。
特征
- MCP 服务器:实现模型上下文协议,以便与 AI 助手集成
- 混合搜索:将关键词搜索精度与向量搜索语义理解相结合
- 向量嵌入:使用 Ollama 和 nomic-embed-text 为文档生成嵌入
- 统一集合:将文档内容和向量嵌入存储在同一个集合中
- Docker 集成:使用 Docker 和 docker-compose 轻松设置
快速入门
- 克隆此存储库
- 使用 Docker 启动 SolrCloud:Copy
- 安装依赖项:Copy
- 处理并索引示例文档:Copy
- 运行 MCP 服务器:Copy
有关更详细的设置和使用说明,请参阅QUICKSTART.md指南。
要求
- Python 3.10 或更高版本
- Docker 和 Docker Compose
- SolrCloud 9.x
- Ollama(用于嵌入生成)
执照
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
贡献
欢迎贡献!请参阅CONTRIBUTING.md获取相关指南。
This server cannot be installed
一个 Python 服务器,使 AI 助手能够通过模型上下文协议对 Apache Solr 索引执行混合搜索查询,将关键字精度与基于向量的语义理解相结合。