MCP Server for Vertex AI Search

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Integrates with Google's Vertex AI Search to enable document searching using Gemini with grounding. Allows querying across one or multiple Vertex AI data stores to retrieve information from private data sources.

Servidor MCP para Vertex AI Search

Este es un servidor MCP para buscar documentos utilizando Vertex AI.

Arquitectura

Esta solución utiliza Gemini con Vertex AI Grounding para buscar documentos utilizando sus datos privados. Grounding mejora la calidad de los resultados de búsqueda al integrar las respuestas de Gemini con sus datos almacenados en el almacén de datos de Vertex AI. Podemos integrar uno o varios almacenes de datos de Vertex AI en el servidor MCP. Para más información sobre grounding, consulte la documentación de Vertex AI Grounding .

Cómo utilizar

Hay dos maneras de usar este servidor MCP. Si desea ejecutarlo en Docker, la primera opción es recomendable, ya que el proyecto incluye Dockerfile.

1. Clonar el repositorio

# Clone the repository git clone git@github.com:ubie-oss/mcp-vertexai-search.git # Create a virtual environment uv venv # Install the dependencies uv sync --all-extras # Check the command uv run mcp-vertexai-search

Instalar el paquete de Python

El paquete aún no está publicado en PyPI, pero podemos instalarlo desde el repositorio. Necesitamos un archivo de configuración derivado de config.yml.template para ejecutar el servidor MCP, ya que el paquete de Python no incluye la plantilla de configuración. Consulte el Apéndice A: Archivo de configuración para obtener más información sobre el archivo de configuración.

# Install the package pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git # Check the command mcp-vertexai-search --help

Desarrollo

Prerrequisitos

Configurar el entorno local

# Optional: Install uv python -m pip install -r requirements.setup.txt # Create a virtual environment uv venv uv sync --all-extras

Ejecutar el servidor MCP

Esto admite dos transportes para SSE (Eventos enviados por el servidor) y stdio (Entrada/Salida estándar). Podemos controlar el transporte configurando el indicador --transport .

Podemos configurar el servidor MCP con un archivo YAML. config.yml.template es una plantilla para el archivo de configuración. Por favor, modifique el archivo de configuración según sus necesidades.

uv run mcp-vertexai-search serve \ --config config.yml \ --transport <stdio|sse>

Prueba la búsqueda de Vertex AI

Podemos probar la búsqueda Vertex AI usando el comando mcp-vertexai-search search sin el servidor MCP.

uv run mcp-vertexai-search search \ --config config.yml \ --query <your-query>

Apéndice A: Archivo de configuración

config.yml.template es una plantilla para el archivo de configuración.

  • server
    • server.name : El nombre del servidor MCP
  • model
    • model.model_name : El nombre del modelo Vertex AI
    • model.project_id : El ID del proyecto del modelo Vertex AI
    • model.location : La ubicación del modelo (por ejemplo, us-central1)
    • model.impersonate_service_account : La cuenta de servicio que se suplantará
    • model.generate_content_config : La configuración para la API de generación de contenido
  • data_stores : La lista de almacenes de datos de Vertex AI
    • data_stores.project_id : El ID del proyecto del almacén de datos de Vertex AI
    • data_stores.location : La ubicación del almacén de datos de Vertex AI (por ejemplo, nosotros)
    • data_stores.datastore_id : El ID del almacén de datos de Vertex AI
    • data_stores.tool_name : El nombre de la herramienta
    • data_stores.description : La descripción del almacén de datos de Vertex AI
-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor que permite la búsqueda de documentos utilizando Vertex AI con conexión a tierra Gemini, mejorando los resultados de búsqueda al conectar las respuestas a datos privados almacenados en Vertex AI Datastore.

  1. Architecture
    1. How to use
      1. 1. Clone the repository
      2. Install the python package
    2. Development
      1. Prerequisites
      2. Set up Local Environment
      3. Run the MCP server
      4. Test the Vertex AI Search
    3. Appendix A: Config file
      ID: nbilfwk7u7