-
securityA
license-
qualityProvides a semantic memory layer that integrates LLMs with OpenSearch, enabling storage and retrieval of memories within the OpenSearch engine.
Last updated -
Python
Apache 2.0
本地向量数据库系统,通过消息控制协议(MCP)为LLM编码代理提供快速、高效的软件项目搜索功能。
安装后,在任意项目目录运行:
该服务将:
Files-DB-MCP 无需配置即可运行,但您可以使用环境变量对其进行自定义:
EMBEDDING_MODEL
- 更改嵌入模型(默认值:'jinaai/jina-embeddings-v2-base-code'或项目特定模型)FAST_STARTUP
- 设置为“true”以使用较小的模型实现更快的启动(默认值:“false”)QUANTIZATION
- 启用/禁用量化(默认值:'true')BINARY_EMBEDDINGS
- 启用/禁用二进制嵌入(默认值:'false')IGNORE_PATTERNS
- 要忽略的文件/目录的逗号分隔列表首次运行时,Files-DB-MCP 将下载嵌入模型,这可能需要几分钟,具体取决于:
由于模型缓存在持久 Docker 卷中,后续启动速度会更快。为了加快初始启动速度,您可以:
Files-DB-MCP 会自动保存下载的嵌入模型,因此您只需下载一次:
model_cache
的 Docker 卷中添加到您的 Claude 代码配置:
有关详细信息,请参阅Claude MCP 集成。
/src
源代码/tests
单元和集成测试/docs
文档/scripts
实用脚本/install
安装脚本/.docker
配置/config
配置文件/ai-assist
- AI 辅助文件欢迎贡献!请随时提交拉取请求。
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
本地向量数据库系统,通过消息控制协议为LLM编码代理提供快速、高效的软件项目语义搜索功能。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/randomm/files-db-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server