Vertex AI MCP Server

Integrations

  • Supports configuration of the server through environment variables loaded from a .env file

  • Used for project dependency management, building, and running the server in development mode

  • Enables web search grounding for queries through the answer_query_websearch tool, combining Google Search results with Vertex AI model responses

Vertex AI MCP-Server

Dieses Projekt implementiert einen Model Context Protocol (MCP)-Server, der eine umfassende Suite von Tools für die Interaktion mit den Vertex AI Gemini-Modellen von Google Cloud bereitstellt, wobei der Schwerpunkt auf Codierungsunterstützung und der Beantwortung allgemeiner Abfragen liegt.

Merkmale

  • Bietet Zugriff auf Vertex AI Gemini-Modelle über zahlreiche MCP-Tools.
  • Unterstützt die Erdung von Websuchanfragen ( answer_query_websearch ) und die direkte Beantwortung von Wissensfragen ( answer_query_direct ).
  • Konfigurierbare Modell-ID, Temperatur, Streaming-Verhalten, maximale Ausgabe-Token und Wiederholungseinstellungen über Umgebungsvariablen.
  • Verwendet standardmäßig die Streaming-API für eine potenziell bessere Reaktionsfähigkeit.
  • Enthält eine grundlegende Wiederholungslogik für vorübergehende API-Fehler.
  • Es werden minimale Sicherheitsfilter angewendet ( BLOCK_NONE ), um mögliche Blockierungen zu reduzieren (mit Vorsicht verwenden).

Mitgelieferte Werkzeuge

Abfrage und Generierung (KI-fokussiert)

  • answer_query_websearch : Beantwortet eine Abfrage in natürlicher Sprache mithilfe des konfigurierten Vertex-KI-Modells, das mit Google-Suchergebnissen erweitert wurde.
  • answer_query_direct : Beantwortet eine Abfrage in natürlicher Sprache ausschließlich unter Verwendung des internen Wissens des konfigurierten Vertex-KI-Modells.
  • explain_topic_with_docs : Bietet eine ausführliche Erklärung für eine Abfrage zu einem bestimmten Softwarethema, indem Informationen hauptsächlich aus offiziellen Dokumenten zusammengefasst werden, die über eine Websuche gefunden wurden.
  • get_doc_snippets : Bietet präzise, maßgebliche Codeausschnitte oder knappe Antworten auf technische Fragen durch die Suche in der offiziellen Dokumentation.
  • generate_project_guidelines : Generiert ein strukturiertes Dokument mit Projektrichtlinien (Markdown) basierend auf einer angegebenen Liste von Technologien (optional mit Versionen) und verwendet dabei eine Websuche nach Best Practices.

Recherche- und Analysetools

  • code_analysis_with_docs : Analysiert Codeausschnitte, indem sie mit Best Practices aus der offiziellen Dokumentation verglichen werden, und identifiziert so potenzielle Fehler, Leistungsprobleme und Sicherheitslücken.
  • technical_comparison : Vergleicht mehrere Technologien, Frameworks oder Bibliotheken anhand bestimmter Kriterien und bietet detaillierte Vergleichstabellen mit Vor-/Nachteilen und Anwendungsfällen.
  • architecture_pattern_recommendation : Schlägt Architekturmuster für bestimmte Anwendungsfälle auf Grundlage bewährter Branchenmethoden mit Implementierungsbeispielen und Überlegungen vor.
  • dependency_vulnerability_scan : Analysiert Projektabhängigkeiten auf bekannte Sicherheitslücken und bietet detaillierte Informationen und Strategien zur Risikominderung.
  • database_schema_analyzer : Überprüft Datenbankschemata auf Normalisierungs-, Indizierungs- und Leistungsprobleme und schlägt Verbesserungen auf der Grundlage datenbankspezifischer Best Practices vor.
  • security_best_practices_advisor : Bietet Sicherheitsempfehlungen für bestimmte Technologien oder Szenarien mit Codebeispielen zur Implementierung sicherer Praktiken.
  • testing_strategy_generator : Erstellt umfassende Teststrategien für Anwendungen oder Funktionen und schlägt geeignete Testtypen mit Abdeckungszielen vor.
  • regulatory_compliance_advisor : Bietet Anleitungen zu regulatorischen Anforderungen für bestimmte Branchen (DSGVO, HIPAA usw.) mit Implementierungsansätzen zur Einhaltung der Vorschriften.
  • microservice_design_assistant : Hilft beim Entwerfen von Microservice-Architekturen für bestimmte Domänen mit Empfehlungen zu Servicegrenzen und Kommunikationsmustern.
  • documentation_generator : Erstellt umfassende Dokumentationen für Code, APIs oder Systeme und befolgt dabei die Best Practices der Branche für technische Dokumentation.

Dateisystemoperationen

  • read_file_content : Liest den gesamten Inhalt einer oder mehrerer Dateien. Geben Sie einen einzelnen Pfad oder ein Array von Pfaden an.
  • write_file_content : Erstellt neue Dateien oder überschreibt vorhandene Dateien vollständig. Das Argument „writes“ akzeptiert ein einzelnes Objekt ( {path, content} ) oder ein Array solcher Objekte.
  • edit_file_content : Nimmt zeilenbasierte Änderungen an einer Textdatei vor, gibt eine Diff-Vorschau zurück oder wendet Änderungen an.
  • list_directory_contents : Listet Dateien und Verzeichnisse direkt innerhalb eines angegebenen Pfads auf (nicht rekursiv).
  • get_directory_tree : Ruft eine rekursive Baumansicht von Dateien und Verzeichnissen als JSON ab.
  • move_file_or_directory : Verschiebt Dateien und Verzeichnisse oder benennt sie um.
  • search_filesystem : Sucht rekursiv nach Dateien/Verzeichnissen, die einem Namensmuster entsprechen, mit optionalen Ausschlüssen.
  • get_filesystem_info : Ruft detaillierte Metadaten (Größe, Datum, Typ, Berechtigungen) zu einer Datei oder einem Verzeichnis ab.
  • execute_terminal_command : Führt einen Shell-Befehl aus, optional mit Angabe cwd und timeout . Gibt stdout/stderr zurück.

Kombinierte KI- und Dateisystemoperationen

  • save_generate_project_guidelines : Generiert Projektrichtlinien basierend auf einem Tech-Stack und speichert das Ergebnis in einem angegebenen Dateipfad.
  • save_doc_snippet : Sucht Codeausschnitte aus der Dokumentation und speichert das Ergebnis in einem angegebenen Dateipfad.
  • save_topic_explanation : Generiert eine detaillierte Erklärung eines Themas basierend auf der Dokumentation und speichert das Ergebnis in einem angegebenen Dateipfad.
  • save_answer_query_direct : Beantwortet eine Abfrage nur unter Verwendung internen Wissens und speichert die Antwort in einem angegebenen Dateipfad.
  • save_answer_query_websearch : Beantwortet eine Abfrage mithilfe von Websuchergebnissen und speichert die Antwort in einem angegebenen Dateipfad.

(Hinweis: Eingabe-/Ausgabeschemata für jedes Tool sind in den jeweiligen Dateien in src/tools/ definiert und über den MCP-Server verfügbar gemacht.)

Voraussetzungen

  • Node.js (v18+)
  • Brötchen ( npm install -g bun )
  • Google Cloud-Projekt mit aktivierter Abrechnung.
  • Vertex AI API im GCP-Projekt aktiviert.
  • In Ihrer Umgebung konfigurierte Google Cloud-Authentifizierung (empfohlen werden Standardanmeldeinformationen der Anwendung über gcloud auth application-default login oder ein Dienstkontoschlüssel).

Einrichtung und Installation

  1. Projekt klonen/platzieren: Stellen Sie sicher, dass sich die Projektdateien am gewünschten Speicherort befinden.
  2. Abhängigkeiten installieren:
    bun install
  3. Umgebung konfigurieren:
    • Erstellen Sie eine .env Datei im Projektstamm (kopieren Sie .env.example ).
    • Legen Sie die erforderlichen und optionalen Umgebungsvariablen wie in .env.example beschrieben fest.
      • Setzen Sie AI_PROVIDER entweder auf "vertex" oder "gemini" .
      • Wenn AI_PROVIDER="vertex" , ist GOOGLE_CLOUD_PROJECT erforderlich.
      • Wenn AI_PROVIDER="gemini" , ist GEMINI_API_KEY erforderlich.
  4. Erstellen Sie den Server:
    bun run build
    Dadurch wird der TypeScript-Code in build/index.js kompiliert.

Verwendung (Standalone / NPX)

Nach der Veröffentlichung auf npm können Sie diesen Server direkt mit npx ausführen:

# Ensure required environment variables are set (e.g., GOOGLE_CLOUD_PROJECT) bunx vertex-ai-mcp-server

Alternativ können Sie es global installieren:

bun install -g vertex-ai-mcp-server # Then run: vertex-ai-mcp-server

Hinweis: Für die eigenständige Ausführung müssen Sie vor der Ausführung des Befehls die erforderlichen Umgebungsvariablen (wie GOOGLE_CLOUD_PROJECT , GOOGLE_CLOUD_LOCATION , Authentifizierungsdaten, wenn ADC nicht verwendet wird) in Ihrer Shell-Umgebung festlegen.

Installation über Smithery

So installieren Sie Vertex AI Server für Claude Desktop automatisch über Smithery :

bunx -y @smithery/cli install @shariqriazz/vertex-ai-mcp-server --client claude

Laufen mit Cline

  1. MCP-Einstellungen konfigurieren: Fügen Sie die Konfiguration in Ihrer Cline MCP-Einstellungsdatei hinzu/aktualisieren Sie sie (z. B. .roo/mcp.json ). Sie haben zwei Möglichkeiten, den Befehl zu konfigurieren:Option A: Verwenden von Node (Direkter Pfad – für die Entwicklung empfohlen)Diese Methode verwendet node , um das kompilierte Skript direkt auszuführen. Dies ist während der Entwicklung nützlich, wenn Sie den Code lokal geklont haben.
    { "mcpServers": { "vertex-ai-mcp-server": { "command": "node", "args": [ "/full/path/to/your/vertex-ai-mcp-server/build/index.js" // Use absolute path or ensure it's relative to where Cline runs node ], "env": { // --- General AI Configuration --- "AI_PROVIDER": "vertex", // "vertex" or "gemini" // --- Required (Conditional) --- "GOOGLE_CLOUD_PROJECT": "YOUR_GCP_PROJECT_ID", // Required if AI_PROVIDER="vertex" // "GEMINI_API_KEY": "YOUR_GEMINI_API_KEY", // Required if AI_PROVIDER="gemini" // --- Optional Model Selection --- "VERTEX_MODEL_ID": "gemini-2.5-pro-exp-03-25", // If AI_PROVIDER="vertex" (Example override) "GEMINI_MODEL_ID": "gemini-2.5-pro-exp-03-25", // If AI_PROVIDER="gemini" // --- Optional AI Parameters --- "GOOGLE_CLOUD_LOCATION": "us-central1", // Specific to Vertex AI "AI_TEMPERATURE": "0.0", "AI_USE_STREAMING": "true", "AI_MAX_OUTPUT_TOKENS": "65536", // Default from .env.example "AI_MAX_RETRIES": "3", "AI_RETRY_DELAY_MS": "1000", // --- Optional Vertex Authentication --- // "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/service-account-key.json" // If using Service Account Key for Vertex }, "disabled": false, "alwaysAllow": [ // Add tool names here if you don't want confirmation prompts // e.g., "answer_query_websearch" ], "timeout": 3600 // Optional: Timeout in seconds } // Add other servers here... } }
    • Wichtig: Stellen Sie sicher, dass der args korrekt auf die Datei build/index.js verweist. Die Verwendung eines absoluten Pfads ist möglicherweise zuverlässiger.

    Option B: Verwenden von NPX (erfordert die Veröffentlichung des Pakets auf npm)

    Diese Methode verwendet npx , um das Serverpaket automatisch aus der npm-Registrierung herunterzuladen und auszuführen. Dies ist praktisch, wenn Sie das Repository nicht klonen möchten.

    { "mcpServers": { "vertex-ai-mcp-server": { "command": "bunx", // Use bunx "args": [ "-y", // Auto-confirm installation "vertex-ai-mcp-server" // The npm package name ], "env": { // --- General AI Configuration --- "AI_PROVIDER": "vertex", // "vertex" or "gemini" // --- Required (Conditional) --- "GOOGLE_CLOUD_PROJECT": "YOUR_GCP_PROJECT_ID", // Required if AI_PROVIDER="vertex" // "GEMINI_API_KEY": "YOUR_GEMINI_API_KEY", // Required if AI_PROVIDER="gemini" // --- Optional Model Selection --- "VERTEX_MODEL_ID": "gemini-2.5-pro-exp-03-25", // If AI_PROVIDER="vertex" (Example override) "GEMINI_MODEL_ID": "gemini-2.5-pro-exp-03-25", // If AI_PROVIDER="gemini" // --- Optional AI Parameters --- "GOOGLE_CLOUD_LOCATION": "us-central1", // Specific to Vertex AI "AI_TEMPERATURE": "0.0", "AI_USE_STREAMING": "true", "AI_MAX_OUTPUT_TOKENS": "65536", // Default from .env.example "AI_MAX_RETRIES": "3", "AI_RETRY_DELAY_MS": "1000", // --- Optional Vertex Authentication --- // "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/service-account-key.json" // If using Service Account Key for Vertex }, "disabled": false, "alwaysAllow": [ // Add tool names here if you don't want confirmation prompts // e.g., "answer_query_websearch" ], "timeout": 3600 // Optional: Timeout in seconds } // Add other servers here... } }
    • Stellen Sie sicher, dass die Umgebungsvariablen im env Block korrekt gesetzt sind. Sie müssen entweder mit .env übereinstimmen oder hier explizit definiert sein. Entfernen Sie Kommentare aus der eigentlichen JSON-Datei.
  2. Cline neu starten/neu laden: Cline sollte die Konfigurationsänderung erkennen und den Server starten.
  3. Tools verwenden: Sie können jetzt die umfangreiche Liste an Tools über Cline verwenden.

Entwicklung

  • Überwachungsmodus: bun run watch
  • Flusen: bun run lint
  • Formatierung: bun run format

Lizenz

Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE .

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Implementierung eines Model Context Protocol (MCP)-Servers, der Tools für den Zugriff auf die Vertex AI Gemini-Modelle von Google Cloud bereitstellt und Funktionen wie die Websucherstellung und direkte Wissensbeantwortung für Codierungshilfe und allgemeine Abfragen unterstützt.

  1. Merkmale
    1. Mitgelieferte Werkzeuge
      1. Abfrage und Generierung (KI-fokussiert)
      2. Recherche- und Analysetools
      3. Dateisystemoperationen
      4. Kombinierte KI- und Dateisystemoperationen
    2. Voraussetzungen
      1. Einrichtung und Installation
        1. Verwendung (Standalone / NPX)
          1. Installation über Smithery
        2. Laufen mit Cline
          1. Entwicklung
            1. Lizenz

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                Model Context Protocol (MCP) server implementation that enables Claude Desktop to interact with Google's Gemini AI models.
                Last updated -
                53
                TypeScript
                MIT License
                • Apple
                • Linux
              • A
                security
                A
                license
                A
                quality
                🔍 A Model Context Protocol (MCP) server providing unified access to multiple search engines (Tavily, Brave, Kagi), AI tools (Perplexity, FastGPT), and content processing services (Jina AI, Kagi). Combines search, AI responses, content processing, and enhancement features through a single interface.
                Last updated -
                15
                82
                64
                TypeScript
                MIT License
                • Linux
              • -
                security
                -
                license
                -
                quality
                An MCP server implementation that allows using Google's Gemini AI models (specifically Gemini 1.5 Pro) through Claude or other MCP clients via the Model Context Protocol.
                Last updated -
                1
                JavaScript
              • A
                security
                A
                license
                A
                quality
                A dedicated server that wraps Google's Gemini AI models in a Model Context Protocol (MCP) interface, allowing other LLMs and MCP-compatible systems to access Gemini's capabilities like content generation, function calling, chat, and file handling through standardized tools.
                Last updated -
                16
                3
                TypeScript
                MIT License
                • Linux
                • Apple

              View all related MCP servers

              ID: 4flmun3tjc