MCP-ラグドックス
ベクターデータベース(Qdrant)を用いたドキュメントのセマンティック検索と取得を可能にするモデルコンテキストプロトコル(MCP)サーバー。このサーバーでは、URLまたはローカルファイルからドキュメントを追加し、自然言語クエリを使用して検索できます。
クイックインストールガイド
パッケージをグローバルにインストールします。
npm install -g @qpd-v/mcp-server-ragdocsQdrant を起動します (Docker を使用)。
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrantOllama がデフォルトの埋め込みモデルで実行されていることを確認します。
ollama pull nomic-embed-text設定ファイルに以下を追加します:
Cline の場合:
%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.jsonRoo-Code の場合:
%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.jsonClaude デスクトップの場合:
%AppData%\Claude\claude_desktop_config.json
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }インストールを確認します:
# Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text
Related MCP server: MCP Server for Qdrant
バージョン
現在のバージョン: 0.1.6
特徴
URLまたはローカルファイルからドキュメントを追加する
セマンティック検索のためにドキュメントをベクターデータベースに保存する
自然言語を使用してドキュメントを検索する
すべてのドキュメントソースを一覧表示する
インストール
npm を使用してグローバルにインストールします。
これにより、以下の構成手順に必要なグローバル npm ディレクトリにサーバーがインストールされます。
要件
Node.js 16以上
Qdrant(ローカルまたはクラウド)
埋め込みの場合は次のいずれかになります。
ローカルで実行される Ollama (デフォルト、無料)
OpenAI APIキー(オプション、有料)
Qdrant セットアップオプション
オプション1: ローカルQdrant
Docker の使用 (推奨):
またはQdrantのウェブサイトからダウンロードしてください
オプション2: Qdrant Cloud
Qdrant Cloudでアカウントを作成する
新しいクラスターを作成する
ダッシュボードからクラスターURLとAPIキーを取得します
これらを設定で使用します(以下の設定セクションを参照)
構成
このサーバーはCline/RooとClaude Desktopの両方で使用できます。設定はそれぞれ若干異なります。
傾斜構成
Cline 設定ファイル ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json ) に追加し、または Roo-Code 設定ファイル ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ) に追加します。
npm global install を使用する (推奨):
Ollama の代わりに OpenAI の場合:
ローカル開発セットアップの使用:
クロードデスクトップ構成
Claude Desktop 構成ファイルに以下を追加します:
Windows:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.json
Ollama を使用した Windows セットアップ (フルパスを使用):
OpenAI を使用した Windows セットアップ:
Ollama を使用した macOS のセットアップ:
Qdrantクラウド構成
Cline または Claude Desktop のいずれの場合も、Qdrant Cloud を使用する場合は、env セクションを変更します。
オラマ氏と:
OpenAIでは:
環境変数
Qdrant 構成
QDRANT_URL(必須): QdrantインスタンスのURLローカルの場合: http://localhost:6333
クラウドの場合: https://your-cluster-url.qdrant.tech
QDRANT_API_KEY(クラウドに必須): Qdrant Cloud APIキー
埋め込み構成
EMBEDDING_PROVIDER(オプション): 「ollama」(デフォルト)または「openai」を選択しますEMBEDDING_MODEL(オプション):Ollamaの場合: デフォルトは「nomic-embed-text」
OpenAIの場合: デフォルトは「text-embedding-3-small」
OLLAMA_URL(オプション): OllamaインスタンスのURL (デフォルトはhttp://localhost:11434 )OPENAI_API_KEY(OpenAIを使用する場合は必須): OpenAI APIキー
利用可能なツール
add_documentationURL から RAG データベースにドキュメントを追加する
パラメータ:
url: 取得するドキュメントのURL
search_documentation保存されたドキュメントを検索する
パラメータ:
query: 検索クエリlimit(オプション): 返される結果の最大数 (デフォルト: 5)
list_sources現在保存されているすべてのドキュメントソースを一覧表示します
パラメータは必要ありません
使用例
Claude Desktop またはその他の MCP 互換クライアントの場合:
ドキュメントを追加します:
ドキュメントを検索:
ソースをリストします:
発達
リポジトリをクローンします。
依存関係をインストールします:
プロジェクトをビルドします。
ローカルで実行:
ライセンス
マサチューセッツ工科大学
トラブルシューティング
よくある問題
Qdrant 接続エラー
Error: Failed to connect to Qdrant at http://localhost:6333Dockerが実行中かどうかを確認する
Qdrantコンテナが実行中であることを確認します:
docker ps | grep qdrantコンテナを再起動してみてください
オラマモデルが見つかりません
Error: Model nomic-embed-text not found実行:
ollama pull nomic-embed-textモデルがインストールされていることを確認する:
ollama list
構成パスの問題
Windows:
YOUR_USERNAME実際のWindowsユーザー名に置き換えますファイルの権限を確認する
パスが存在することを確認する
npm グローバルインストールの問題
管理者権限でインストールしてみてください
npm が PATH にあるか確認:
npm -vグローバルインストールを確認する:
npm list -g @qpd-v/mcp-server-ragdocs
その他の問題については、以下を確認してください。
Docker ログ:
docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)オラマのステータス:
ollama listNode.js バージョン:
node -v(16 以上である必要があります)
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。