Skip to main content
Glama

Files-DB-MCP

by randomm

Files-DB-MCP: コードプロジェクトのベクトル検索

メッセージ制御プロトコル (MCP) を介して、LLM コーディング エージェントにソフトウェア プロジェクトの高速で効率的な検索機能を提供するローカル ベクター データベース システム。

特徴

  • ゼロ構成- 適切なデフォルトを使用してプロジェクト構造を自動検出します
  • リアルタイム監視- ファイルの変更を継続的に監視します
  • ベクトル検索- 関連するコードを見つけるためのセマンティック検索
  • MCP インターフェース- Claude Code およびその他の LLM ツールと互換性があります
  • オープンソースモデル- コードの埋め込みにHugging Faceモデルを使用

インストール

オプション 1: クローンとセットアップ (推奨)

# Using SSH (recommended if you have SSH keys set up with GitHub) git clone git@github.com:randomm/files-db-mcp.git ~/.files-db-mcp && bash ~/.files-db-mcp/install/setup.sh # Using HTTPS (if you don't have SSH keys set up) git clone https://github.com/randomm/files-db-mcp.git ~/.files-db-mcp && bash ~/.files-db-mcp/install/setup.sh

オプション2: 自動インストールスクリプト

curl -fsSL https://raw.githubusercontent.com/randomm/files-db-mcp/main/install/install.sh | bash

使用法

インストール後、任意のプロジェクト ディレクトリで実行します。

files-db-mcp

このサービスでは次のことが行われます。

  1. プロジェクトファイルを検出する
  2. バックグラウンドでインデックス作成を開始する
  3. MCP検索クエリにすぐに応答し始める

要件

  • ドッカー
  • Dockerコンポーズ

構成

Files-DB-MCP は設定なしで動作しますが、環境変数を使用してカスタマイズできます。

  • EMBEDDING_MODEL - 埋め込みモデルを変更します(デフォルト: 'jinaai/jina-embeddings-v2-base-code' またはプロジェクト固有のモデル)
  • FAST_STARTUP - 起動を高速化するために小さいモデルを使用するには「true」に設定します(デフォルト:「false」)
  • QUANTIZATION - 量子化を有効/無効にする(デフォルト: 'true')
  • BINARY_EMBEDDINGS - バイナリ埋め込みを有効/無効にする(デフォルト: 'false')
  • IGNORE_PATTERNS - 無視するファイル/ディレクトリのコンマ区切りリスト

初めてのスタートアップ

初回実行時に、Files-DB-MCP は埋め込みモデルをダウンロードしますが、これには次の条件に応じて数分かかる場合があります。

  • 選択したモデルのサイズ(高品質モデルの場合は300~500MB)
  • インターネット接続速度

モデルは永続的なDockerボリュームにキャッシュされるため、以降の起動は大幅に高速化されます。初期起動を高速化するには、以下の方法があります。

# Use a smaller, faster model (90MB) EMBEDDING_MODEL=sentence-transformers/all-MiniLM-L6-v2 files-db-mcp # Or enable fast startup mode FAST_STARTUP=true files-db-mcp

モデルキャッシュ

Files-DB-MCP はダウンロードした埋め込みモデルを自動的に保存するため、ダウンロードする必要があるのは 1 回だけです。

  • モデルはmodel_cacheと呼ばれるDockerボリュームに保存されます。
  • このボリュームはコンテナの再起動や異なるプロジェクト間でも保持されます
  • キャッシュは、マシン上の Files-DB-MCP を使用するすべてのプロジェクトで共有されます。
  • プロジェクトごとにモデルを再度ダウンロードする必要はありません

クロード・コード統合

Claude Code 構成に追加:

{ "mcpServers": { "files-db-mcp": { "command": "python", "args": ["/path/to/src/claude_mcp_server.py", "--host", "localhost", "--port", "6333"] } } }

詳細については、 「Claude MCP 統合」を参照してください。

ドキュメント

リポジトリ構造

  • /src - ソースコード
  • /tests - ユニットテストと統合テスト
  • /docs - ドキュメント
  • /scripts - ユーティリティスクリプト
  • /install - インストールスクリプト
  • /.docker - Docker 設定
  • /config - 設定ファイル
  • /ai-assist - AIアシスタンスファイル

ライセンス

MITライセンス

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

メッセージ制御プロトコルを介して、ソフトウェア プロジェクトの高速で効率的なセマンティック検索機能を LLM コーディング エージェントに提供するローカル ベクター データベース システム。

  1. 特徴
    1. インストール
      1. オプション 1: クローンとセットアップ (推奨)
      2. オプション2: 自動インストールスクリプト
    2. 使用法
      1. 要件
        1. 構成
          1. 初めてのスタートアップ
          2. モデルキャッシュ
        2. クロード・コード統合
          1. ドキュメント
            1. リポジトリ構造
              1. ライセンス
                1. 貢献

                  Related MCP Servers

                  • -
                    security
                    A
                    license
                    -
                    quality
                    Provides a semantic memory layer that integrates LLMs with OpenSearch, enabling storage and retrieval of memories within the OpenSearch engine.
                    Last updated -
                    Python
                    Apache 2.0
                  • A
                    security
                    A
                    license
                    A
                    quality
                    Chat with your codebase through intelligent code searching without embeddings by breaking files into logical chunks, giving the LLM tools to search these chunks, and letting it find specific code needed to answer your questions.
                    Last updated -
                    8
                    51
                    Python
                    MIT License
                  • -
                    security
                    A
                    license
                    -
                    quality
                    An integration server implementing the Model Context Protocol that enables LLM applications to interact with Milvus vector database functionality, allowing vector search, collection management, and data operations through natural language.
                    Last updated -
                    133
                    Python
                    Apache 2.0
                    • Apple
                  • -
                    security
                    -
                    license
                    -
                    quality
                    A long-term memory storage system for LLMs that helps them remember context across multiple sessions using semantic search with embeddings to provide relevant historical information from past interactions and development decisions.
                    Last updated -
                    3
                    TypeScript
                    MIT License

                  View all related MCP servers

                  MCP directory API

                  We provide all the information about MCP servers via our MCP API.

                  curl -X GET 'https://glama.ai/api/mcp/v1/servers/randomm/files-db-mcp'

                  If you have feedback or need assistance with the MCP directory API, please join our Discord server