MCP Server for Vertex AI Search

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Integrates with Google's Vertex AI Search to enable document searching using Gemini with grounding. Allows querying across one or multiple Vertex AI data stores to retrieve information from private data sources.

Vertex AI Search 用 MCP サーバー

これは、Vertex AI を使用してドキュメントを検索するための MCP サーバーです。

建築

このソリューションは、GeminiとVertex AI Groundingを活用し、お客様のプライベートデータを使用してドキュメントを検索します。Groundingは、GeminiのレスポンスをVertex AI Datastoreに保存されているデータにグラウンディングすることで、検索結果の品質を向上させます。MCPサーバーには、1つまたは複数のVertex AIデータストアを統合できます。Groundingの詳細については、 Vertex AI Groundingのドキュメントをご覧ください。

使い方

このMCPサーバーを使用するには2つの方法があります。Docker上で実行したい場合は、プロジェクト内にDockerfileが提供されているため、最初の方法をお勧めします。

1. リポジトリをクローンする

# Clone the repository git clone git@github.com:ubie-oss/mcp-vertexai-search.git # Create a virtual environment uv venv # Install the dependencies uv sync --all-extras # Check the command uv run mcp-vertexai-search

Pythonパッケージをインストールする

このパッケージはまだPyPIに公開されていませんが、リポジトリからインストールできます。MCPサーバーを実行するには、 config.yml.templateから派生した設定ファイルが必要です。Pythonパッケージには設定テンプレートが含まれていないためです。設定ファイルの詳細については、付録A「設定ファイル」を参照してください。

# Install the package pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git # Check the command mcp-vertexai-search --help

発達

前提条件

ローカル環境の設定

# Optional: Install uv python -m pip install -r requirements.setup.txt # Create a virtual environment uv venv uv sync --all-extras

MCPサーバーを実行する

これはSSE(Server-Sent Events)とstdio(Standard Input Output)の2つのトランスポートをサポートしています。-- --transportフラグを設定することでトランスポートを制御できます。

MCPサーバーはYAMLファイルで設定できます。config.yml.template設定ファイルのテンプレートです。必要に応じて設定ファイルを修正してください。

uv run mcp-vertexai-search serve \ --config config.yml \ --transport <stdio|sse>

Vertex AI Searchをテストする

MCP サーバーなしでmcp-vertexai-search searchコマンドを使用して Vertex AI Search をテストできます。

uv run mcp-vertexai-search search \ --config config.yml \ --query <your-query>

付録A: 設定ファイル

config.yml.templateは設定ファイルのテンプレートです。

  • server
    • server.name : MCPサーバーの名前
  • model
    • model.model_name : Vertex AI モデルの名前
    • model.project_id : Vertex AI モデルのプロジェクト ID
    • model.location : モデルの場所(例:us-central1)
    • model.impersonate_service_account : 偽装するサービスアカウント
    • model.generate_content_config : コンテンツ生成APIの設定
  • data_stores : Vertex AI データストアのリスト
    • data_stores.project_id : Vertex AI データストアのプロジェクト ID
    • data_stores.location : Vertex AI データストアの場所 (例: us)
    • data_stores.datastore_id : Vertex AI データストアのID
    • data_stores.tool_name : ツールの名前
    • data_stores.description : Vertex AI データストアの説明
-
security - not tested
A
license - permissive license
-
quality - not tested

Vertex AI と Gemini グラウンディングを使用したドキュメント検索を可能にし、Vertex AI データストアに保存されているプライベート データに応答をグラウンディングすることで検索結果を向上させるサーバーです。

  1. Architecture
    1. How to use
      1. 1. Clone the repository
      2. Install the python package
    2. Development
      1. Prerequisites
      2. Set up Local Environment
      3. Run the MCP server
      4. Test the Vertex AI Search
    3. Appendix A: Config file
      ID: nbilfwk7u7