hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
MCP-ラグドックス
ベクターデータベース(Qdrant)を用いたドキュメントのセマンティック検索と取得を可能にするモデルコンテキストプロトコル(MCP)サーバー。このサーバーでは、URLまたはローカルファイルからドキュメントを追加し、自然言語クエリを使用して検索できます。
クイックインストールガイド
- パッケージをグローバルにインストールします。Copy
- Qdrant を起動します (Docker を使用)。Copy
- Ollama がデフォルトの埋め込みモデルで実行されていることを確認します。Copy
- 設定ファイルに以下を追加します:
- Cline の場合:
%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
- Roo-Code の場合:
%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
- Claude デスクトップの場合:
%AppData%\Claude\claude_desktop_config.json
Copy - Cline の場合:
- インストールを確認します:Copy
バージョン
現在のバージョン: 0.1.6
特徴
- URLまたはローカルファイルからドキュメントを追加する
- セマンティック検索のためにドキュメントをベクターデータベースに保存する
- 自然言語を使用してドキュメントを検索する
- すべてのドキュメントソースを一覧表示する
インストール
npm を使用してグローバルにインストールします。
これにより、以下の構成手順に必要なグローバル npm ディレクトリにサーバーがインストールされます。
要件
- Node.js 16以上
- Qdrant(ローカルまたはクラウド)
- 埋め込みの場合は次のいずれかになります。
- ローカルで実行される Ollama (デフォルト、無料)
- OpenAI APIキー(オプション、有料)
Qdrant セットアップオプション
オプション1: ローカルQdrant
- Docker の使用 (推奨):
- またはQdrantのウェブサイトからダウンロードしてください
オプション2: Qdrant Cloud
- Qdrant Cloudでアカウントを作成する
- 新しいクラスターを作成する
- ダッシュボードからクラスターURLとAPIキーを取得します
- これらを設定で使用します(以下の設定セクションを参照)
構成
このサーバーはCline/RooとClaude Desktopの両方で使用できます。設定はそれぞれ若干異なります。
傾斜構成
Cline 設定ファイル ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
) に追加し、または Roo-Code 設定ファイル ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
) に追加します。
- npm global install を使用する (推奨):
Ollama の代わりに OpenAI の場合:
- ローカル開発セットアップの使用:
クロードデスクトップ構成
Claude Desktop 構成ファイルに以下を追加します:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Ollama を使用した Windows セットアップ (フルパスを使用):
OpenAI を使用した Windows セットアップ:
- Ollama を使用した macOS のセットアップ:
Qdrantクラウド構成
Cline または Claude Desktop のいずれの場合も、Qdrant Cloud を使用する場合は、env セクションを変更します。
オラマ氏と:
OpenAIでは:
環境変数
Qdrant 構成
QDRANT_URL
(必須): QdrantインスタンスのURL- ローカルの場合: http://localhost:6333
- クラウドの場合: https://your-cluster-url.qdrant.tech
QDRANT_API_KEY
(クラウドに必須): Qdrant Cloud APIキー
埋め込み構成
EMBEDDING_PROVIDER
(オプション): 「ollama」(デフォルト)または「openai」を選択しますEMBEDDING_MODEL
(オプション):- Ollamaの場合: デフォルトは「nomic-embed-text」
- OpenAIの場合: デフォルトは「text-embedding-3-small」
OLLAMA_URL
(オプション): OllamaインスタンスのURL (デフォルトはhttp://localhost:11434 )OPENAI_API_KEY
(OpenAIを使用する場合は必須): OpenAI APIキー
利用可能なツール
add_documentation
- URL から RAG データベースにドキュメントを追加する
- パラメータ:
url
: 取得するドキュメントのURL
search_documentation
- 保存されたドキュメントを検索する
- パラメータ:
query
: 検索クエリlimit
(オプション): 返される結果の最大数 (デフォルト: 5)
list_sources
- 現在保存されているすべてのドキュメントソースを一覧表示します
- パラメータは必要ありません
使用例
Claude Desktop またはその他の MCP 互換クライアントの場合:
- ドキュメントを追加します:
- ドキュメントを検索:
- ソースをリストします:
発達
- リポジトリをクローンします。
- 依存関係をインストールします:
- プロジェクトをビルドします。
- ローカルで実行:
ライセンス
マサチューセッツ工科大学
トラブルシューティング
よくある問題
- Qdrant 接続エラーCopy
- Dockerが実行中かどうかを確認する
- Qdrantコンテナが実行中であることを確認します:
docker ps | grep qdrant
- コンテナを再起動してみてください
- オラマモデルが見つかりませんCopy
- 実行:
ollama pull nomic-embed-text
- モデルがインストールされていることを確認する:
ollama list
- 実行:
- 構成パスの問題
- Windows:
YOUR_USERNAME
実際のWindowsユーザー名に置き換えます - ファイルの権限を確認する
- パスが存在することを確認する
- Windows:
- npm グローバルインストールの問題
- 管理者権限でインストールしてみてください
- npm が PATH にあるか確認:
npm -v
- グローバルインストールを確認する:
npm list -g @qpd-v/mcp-server-ragdocs
その他の問題については、以下を確認してください。
- Docker ログ:
docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)
- オラマのステータス:
ollama list
- Node.js バージョン:
node -v
(16 以上である必要があります)
貢献
貢献を歓迎します!お気軽にプルリクエストを送信してください。
This server cannot be installed
ベクターデータベース(Qdrant)を用いたドキュメントのセマンティック検索と取得を可能にするモデルコンテキストプロトコル(MCP)サーバー。このサーバーでは、URLまたはローカルファイルからドキュメントを追加し、自然言語クエリを使用して検索できます。