Skip to main content
Glama

MCP Server for Vertex AI Search

by ubie-oss

Este es un servidor MCP para buscar documentos utilizando Vertex AI.

Arquitectura

Esta solución utiliza Gemini con Vertex AI Grounding para buscar documentos utilizando sus datos privados. Grounding mejora la calidad de los resultados de búsqueda al integrar las respuestas de Gemini con sus datos almacenados en el almacén de datos de Vertex AI. Podemos integrar uno o varios almacenes de datos de Vertex AI en el servidor MCP. Para más información sobre grounding, consulte la documentación de Vertex AI Grounding .

Arquitectura

Cómo utilizar

Hay dos maneras de usar este servidor MCP. Si desea ejecutarlo en Docker, la primera opción es recomendable, ya que el proyecto incluye Dockerfile.

1. Clonar el repositorio

# Clone the repository git clone git@github.com:ubie-oss/mcp-vertexai-search.git # Create a virtual environment uv venv # Install the dependencies uv sync --all-extras # Check the command uv run mcp-vertexai-search

Instalar el paquete de Python

El paquete aún no está publicado en PyPI, pero podemos instalarlo desde el repositorio. Necesitamos un archivo de configuración derivado de config.yml.template para ejecutar el servidor MCP, ya que el paquete de Python no incluye la plantilla de configuración. Consulte el Apéndice A: Archivo de configuración para obtener más información sobre el archivo de configuración.

# Install the package pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git # Check the command mcp-vertexai-search --help

Desarrollo

Prerrequisitos

Configurar el entorno local

# Optional: Install uv python -m pip install -r requirements.setup.txt # Create a virtual environment uv venv uv sync --all-extras

Ejecutar el servidor MCP

Esto admite dos transportes para SSE (Eventos enviados por el servidor) y stdio (Entrada/Salida estándar). Podemos controlar el transporte configurando el indicador --transport .

Podemos configurar el servidor MCP con un archivo YAML. config.yml.template es una plantilla para el archivo de configuración. Por favor, modifique el archivo de configuración según sus necesidades.

uv run mcp-vertexai-search serve \ --config config.yml \ --transport <stdio|sse>

Prueba la búsqueda de Vertex AI

Podemos probar la búsqueda Vertex AI usando el comando mcp-vertexai-search search sin el servidor MCP.

uv run mcp-vertexai-search search \ --config config.yml \ --query <your-query>

Apéndice A: Archivo de configuración

config.yml.template es una plantilla para el archivo de configuración.

  • server
    • server.name : El nombre del servidor MCP
  • model
    • model.model_name : El nombre del modelo Vertex AI
    • model.project_id : El ID del proyecto del modelo Vertex AI
    • model.location : La ubicación del modelo (por ejemplo, us-central1)
    • model.impersonate_service_account : La cuenta de servicio que se suplantará
    • model.generate_content_config : La configuración para la API de generación de contenido
  • data_stores : La lista de almacenes de datos de Vertex AI
    • data_stores.project_id : El ID del proyecto del almacén de datos de Vertex AI
    • data_stores.location : La ubicación del almacén de datos de Vertex AI (por ejemplo, nosotros)
    • data_stores.datastore_id : El ID del almacén de datos de Vertex AI
    • data_stores.tool_name : El nombre de la herramienta
    • data_stores.description : La descripción del almacén de datos de Vertex AI
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor que permite la búsqueda de documentos utilizando Vertex AI con conexión a tierra Gemini, mejorando los resultados de búsqueda al conectar las respuestas a datos privados almacenados en Vertex AI Datastore.

  1. Arquitectura
    1. Cómo utilizar
      1. Clonar el repositorio
      2. Instalar el paquete de Python
    2. Desarrollo
      1. Prerrequisitos
      2. Configurar el entorno local
      3. Ejecutar el servidor MCP
      4. Prueba la búsqueda de Vertex AI
    3. Apéndice A: Archivo de configuración

      Related MCP Servers

      • A
        security
        A
        license
        A
        quality
        A server facilitating web search functionality by utilizing Perplexity AI's API, designed to integrate with the Claude desktop client for enhanced search queries.
        Last updated -
        1
        94
        Python
        MIT License
        • Apple
      • A
        security
        F
        license
        A
        quality
        This server allows users to perform web searches using Perplexity AI, providing a tool for retrieving search results through a simple API interface.
        Last updated -
        1
        2
        TypeScript
      • -
        security
        A
        license
        -
        quality
        A server that allows AI assistants to search for research papers, read their content, and access related code repositories through the PapersWithCode API.
        Last updated -
        4
        Python
        MIT License
      • -
        security
        A
        license
        -
        quality
        A server that provides data retrieval capabilities powered by Chroma embedding database, enabling AI models to create collections over generated data and user inputs, and retrieve that data using vector search, full text search, and metadata filtering.
        Last updated -
        157
        Python
        Apache 2.0

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/ubie-oss/mcp-vertexai-search'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server