Skip to main content
Glama

MCP-ラグドックス

ベクターデータベース(Qdrant)を用いたドキュメントのセマンティック検索と取得を可能にするモデルコンテキストプロトコル(MCP)サーバー。このサーバーでは、URLまたはローカルファイルからドキュメントを追加し、自然言語クエリを使用して検索できます。

クイックインストールガイド

  1. パッケージをグローバルにインストールします。

    npm install -g @qpd-v/mcp-server-ragdocs
  2. Qdrant を起動します (Docker を使用)。

    docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  3. Ollama がデフォルトの埋め込みモデルで実行されていることを確認します。

    ollama pull nomic-embed-text
  4. 設定ファイルに以下を追加します:

    • Cline の場合: %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json

    • Roo-Code の場合: %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json

    • Claude デスクトップの場合: %AppData%\Claude\claude_desktop_config.json

    { "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }
  5. インストールを確認します:

    # Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text

Related MCP server: MCP Server for Qdrant

バージョン

現在のバージョン: 0.1.6

特徴

  • URLまたはローカルファイルからドキュメントを追加する

  • セマンティック検索のためにドキュメントをベクターデータベースに保存する

  • 自然言語を使用してドキュメントを検索する

  • すべてのドキュメントソースを一覧表示する

インストール

npm を使用してグローバルにインストールします。

npm install -g @qpd-v/mcp-server-ragdocs

これにより、以下の構成手順に必要なグローバル npm ディレクトリにサーバーがインストールされます。

要件

  • Node.js 16以上

  • Qdrant(ローカルまたはクラウド)

  • 埋め込みの場合は次のいずれかになります。

    • ローカルで実行される Ollama (デフォルト、無料)

    • OpenAI APIキー(オプション、有料)

Qdrant セットアップオプション

オプション1: ローカルQdrant

  1. Docker の使用 (推奨):

docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  1. またはQdrantのウェブサイトからダウンロードしてください

オプション2: Qdrant Cloud

  1. Qdrant Cloudでアカウントを作成する

  2. 新しいクラスターを作成する

  3. ダッシュボードからクラスターURLとAPIキーを取得します

  4. これらを設定で使用します(以下の設定セクションを参照)

構成

このサーバーはCline/RooとClaude Desktopの両方で使用できます。設定はそれぞれ若干異なります。

傾斜構成

Cline 設定ファイル ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json ) に追加し、または Roo-Code 設定ファイル ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ) に追加します。

  1. npm global install を使用する (推奨):

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Ollama の代わりに OpenAI の場合:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. ローカル開発セットアップの使用:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

クロードデスクトップ構成

Claude Desktop 構成ファイルに以下を追加します:

  • Windows: %AppData%\Claude\claude_desktop_config.json

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

  1. Ollama を使用した Windows セットアップ (フルパスを使用):

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

OpenAI を使用した Windows セットアップ:

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. Ollama を使用した macOS のセットアップ:

{ "mcpServers": { "ragdocs": { "command": "/usr/local/bin/node", "args": [ "/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Qdrantクラウド構成

Cline または Claude Desktop のいずれの場合も、Qdrant Cloud を使用する場合は、env セクションを変更します。

オラマ氏と:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } }

OpenAIでは:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } }

環境変数

Qdrant 構成

埋め込み構成

  • EMBEDDING_PROVIDER (オプション): 「ollama」(デフォルト)または「openai」を選択します

  • EMBEDDING_MODEL (オプション):

    • Ollamaの場合: デフォルトは「nomic-embed-text」

    • OpenAIの場合: デフォルトは「text-embedding-3-small」

  • OLLAMA_URL (オプション): OllamaインスタンスのURL (デフォルトはhttp://localhost:11434 )

  • OPENAI_API_KEY (OpenAIを使用する場合は必須): OpenAI APIキー

利用可能なツール

  1. add_documentation

    • URL から RAG データベースにドキュメントを追加する

    • パラメータ:

      • url : 取得するドキュメントのURL

  2. search_documentation

    • 保存されたドキュメントを検索する

    • パラメータ:

      • query : 検索クエリ

      • limit (オプション): 返される結果の最大数 (デフォルト: 5)

  3. list_sources

    • 現在保存されているすべてのドキュメントソースを一覧表示します

    • パラメータは必要ありません

使用例

Claude Desktop またはその他の MCP 互換クライアントの場合:

  1. ドキュメントを追加します:

Add this documentation: https://docs.example.com/api
  1. ドキュメントを検索:

Search the documentation for information about authentication
  1. ソースをリストします:

What documentation sources are available?

発達

  1. リポジトリをクローンします。

git clone https://github.com/qpd-v/mcp-server-ragdocs.git cd mcp-server-ragdocs
  1. 依存関係をインストールします:

npm install
  1. プロジェクトをビルドします。

npm run build
  1. ローカルで実行:

npm start

ライセンス

マサチューセッツ工科大学

トラブルシューティング

よくある問題

  1. Qdrant 接続エラー

    Error: Failed to connect to Qdrant at http://localhost:6333
    • Dockerが実行中かどうかを確認する

    • Qdrantコンテナが実行中であることを確認します: docker ps | grep qdrant

    • コンテナを再起動してみてください

  2. オラマモデルが見つかりません

    Error: Model nomic-embed-text not found
    • 実行: ollama pull nomic-embed-text

    • モデルがインストールされていることを確認する: ollama list

  3. 構成パスの問題

    • Windows: YOUR_USERNAME実際のWindowsユーザー名に置き換えます

    • ファイルの権限を確認する

    • パスが存在することを確認する

  4. npm グローバルインストールの問題

    • 管理者権限でインストールしてみてください

    • npm が PATH にあるか確認: npm -v

    • グローバルインストールを確認する: npm list -g @qpd-v/mcp-server-ragdocs

その他の問題については、以下を確認してください。

  • Docker ログ: docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)

  • オラマのステータス: ollama list

  • Node.js バージョン: node -v (16 以上である必要があります)

貢献

貢献を歓迎します!お気軽にプルリクエストを送信してください。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/qpd-v/mcp-ragdocs'

If you have feedback or need assistance with the MCP directory API, please join our Discord server