Skip to main content
Glama

MCP Server for Vertex AI Search

by ubie-oss

Vertex AI Search 用 MCP サーバー

これは、Vertex AI を使用してドキュメントを検索するための MCP サーバーです。

建築

このソリューションは、GeminiとVertex AI Groundingを活用し、お客様のプライベートデータを使用してドキュメントを検索します。Groundingは、GeminiのレスポンスをVertex AI Datastoreに保存されているデータにグラウンディングすることで、検索結果の品質を向上させます。MCPサーバーには、1つまたは複数のVertex AIデータストアを統合できます。Groundingの詳細については、 Vertex AI Groundingのドキュメントをご覧ください。

建築

使い方

このMCPサーバーを使用するには2つの方法があります。Docker上で実行したい場合は、プロジェクト内にDockerfileが提供されているため、最初の方法をお勧めします。

1. リポジトリをクローンする

# Clone the repository git clone git@github.com:ubie-oss/mcp-vertexai-search.git # Create a virtual environment uv venv # Install the dependencies uv sync --all-extras # Check the command uv run mcp-vertexai-search

Pythonパッケージをインストールする

このパッケージはまだPyPIに公開されていませんが、リポジトリからインストールできます。MCPサーバーを実行するには、 config.yml.templateから派生した設定ファイルが必要です。Pythonパッケージには設定テンプレートが含まれていないためです。設定ファイルの詳細については、付録A「設定ファイル」を参照してください。

# Install the package pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git # Check the command mcp-vertexai-search --help

発達

前提条件

ローカル環境の設定

# Optional: Install uv python -m pip install -r requirements.setup.txt # Create a virtual environment uv venv uv sync --all-extras

MCPサーバーを実行する

これはSSE(Server-Sent Events)とstdio(Standard Input Output)の2つのトランスポートをサポートしています。-- --transportフラグを設定することでトランスポートを制御できます。

MCPサーバーはYAMLファイルで設定できます。config.yml.template設定ファイルのテンプレートです。必要に応じて設定ファイルを修正してください。

uv run mcp-vertexai-search serve \ --config config.yml \ --transport <stdio|sse>

Vertex AI Searchをテストする

MCP サーバーなしでmcp-vertexai-search searchコマンドを使用して Vertex AI Search をテストできます。

uv run mcp-vertexai-search search \ --config config.yml \ --query <your-query>

付録A: 設定ファイル

config.yml.templateは設定ファイルのテンプレートです。

  • server
    • server.name : MCPサーバーの名前
  • model
    • model.model_name : Vertex AI モデルの名前
    • model.project_id : Vertex AI モデルのプロジェクト ID
    • model.location : モデルの場所(例:us-central1)
    • model.impersonate_service_account : 偽装するサービスアカウント
    • model.generate_content_config : コンテンツ生成APIの設定
  • data_stores : Vertex AI データストアのリスト
    • data_stores.project_id : Vertex AI データストアのプロジェクト ID
    • data_stores.location : Vertex AI データストアの場所 (例: us)
    • data_stores.datastore_id : Vertex AI データストアのID
    • data_stores.tool_name : ツールの名前
    • data_stores.description : Vertex AI データストアの説明
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Vertex AI と Gemini グラウンディングを使用したドキュメント検索を可能にし、Vertex AI データストアに保存されているプライベート データに応答をグラウンディングすることで検索結果を向上させるサーバーです。

  1. 建築
    1. 使い方
      1. 1. リポジトリをクローンする
      2. Pythonパッケージをインストールする
    2. 発達
      1. 前提条件
      2. ローカル環境の設定
      3. MCPサーバーを実行する
      4. Vertex AI Searchをテストする
    3. 付録A: 設定ファイル

      Related MCP Servers

      • -
        security
        F
        license
        -
        quality
        A server that provides access to Google Gemini AI capabilities including text generation, image analysis, YouTube video analysis, and web search functionality through the MCP protocol.
        Last updated -
        18
        3
        TypeScript
        • Apple
      • -
        security
        A
        license
        -
        quality
        Provides web search functionality for the Gemini Terminal Agent, handling concurrent requests and content extraction to deliver real-time information from the web.
        Last updated -
        Python
        Apache 2.0
      • A
        security
        A
        license
        A
        quality
        Implementation of Model Context Protocol (MCP) server that provides tools for accessing Google Cloud's Vertex AI Gemini models, supporting features like web search grounding and direct knowledge answering for coding assistance and general queries.
        Last updated -
        20
        37
        67
        TypeScript
        MIT License
        • Linux
        • Apple
      • -
        security
        F
        license
        -
        quality
        A server that implements Retrieval-Augmented Generation using GroundX and OpenAI, enabling semantic search and document retrieval with Modern Context Processing for enhanced context handling.
        Last updated -
        Python
        • Linux
        • Apple

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/ubie-oss/mcp-vertexai-search'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server