Skip to main content
Glama

n8n MCP Server

n8n MCP Server

Ein Model Context Protocol (MCP)-Server, der es KI-Assistenten ermöglicht, über natürliche Sprache mit n8n-Workflows zu interagieren.

Überblick

Dieser MCP-Server bietet KI-Assistenten Tools und Ressourcen zur Verwaltung von n8n-Workflows und -Ausführungen. Er ermöglicht Assistenten:

  • Auflisten, Erstellen, Aktualisieren und Löschen von Workflows
  • Aktivieren und Deaktivieren von Workflows
  • Ausführen von Workflows und Überwachen ihres Status
  • Zugriff auf Workflow-Informationen und Ausführungsstatistiken

Installation

Voraussetzungen

  • Node.js 18 oder höher
  • n8n-Instanz mit aktiviertem API-Zugriff

Von npm installieren

npm install -g n8n-mcp-server

Von der Quelle installieren

# Clone the repository git clone https://github.com/leonardsellem/n8n-mcp-server.git cd n8n-mcp-server # Install dependencies npm install # Build the project npm run build # Optional: Install globally npm install -g .

Docker-Installation

Sie können den Server auch mit Docker ausführen:

# Pull the image docker pull leonardsellem/n8n-mcp-server # Run the container with your n8n API configuration docker run -e N8N_API_URL=http://your-n8n:5678/api/v1 \ -e N8N_API_KEY=your_n8n_api_key \ -e N8N_WEBHOOK_USERNAME=username \ -e N8N_WEBHOOK_PASSWORD=password \ leonardsellem/n8n-mcp-server

Konfiguration

Erstellen Sie eine .env Datei in dem Verzeichnis, in dem Sie den Server ausführen, und verwenden Sie .env.example als Vorlage:

cp .env.example .env

Konfigurieren Sie die folgenden Umgebungsvariablen:

VariableBeschreibungBeispiel
N8N_API_URLVollständige URL der n8n-API, einschließlich /api/v1http://localhost:5678/api/v1
N8N_API_KEYAPI-Schlüssel zur Authentifizierung mit n8nn8n_api_...
N8N_WEBHOOK_USERNAMEBenutzername für die Webhook-Authentifizierung (bei Verwendung von Webhooks)username
N8N_WEBHOOK_PASSWORDPasswort für die Webhook-Authentifizierungpassword
DEBUGDebug-Protokollierung aktivieren (optional)true oder false

Generieren eines n8n-API-Schlüssels

  1. Öffnen Sie Ihre n8n-Instanz in einem Browser
  2. Gehen Sie zu Einstellungen > API > API-Schlüssel
  3. Erstellen Sie einen neuen API-Schlüssel mit entsprechenden Berechtigungen
  4. Kopieren Sie den Schlüssel in Ihre .env Datei

Verwendung

Ausführen des Servers

Aus dem Installationsverzeichnis:

n8n-mcp-server

Oder bei globaler Installation:

n8n-mcp-server

Integration mit KI-Assistenten

Nachdem Sie den Server erstellt haben ( npm run build ), müssen Sie Ihren KI-Assistenten (z. B. VS Code mit der Claude-Erweiterung oder die Claude Desktop-App) für die Ausführung konfigurieren. Dies beinhaltet normalerweise die Bearbeitung einer JSON-Konfigurationsdatei.

Beispielkonfiguration (z. B. in VS Code settings.json oder Claude Desktop claude_desktop_config.json ):

{ "mcpServers": { // Give your server a unique name "n8n-local": { // Use 'node' to execute the built JavaScript file "command": "node", // Provide the *absolute path* to the built index.js file "args": [ "/path/to/your/cloned/n8n-mcp-server/build/index.js" // On Windows, use double backslashes: // "C:\\path\\to\\your\\cloned\\n8n-mcp-server\\build\\index.js" ], // Environment variables needed by the server "env": { "N8N_API_URL": "http://your-n8n-instance:5678/api/v1", // Replace with your n8n URL "N8N_API_KEY": "YOUR_N8N_API_KEY", // Replace with your key // Add webhook credentials only if you plan to use webhook tools // "N8N_WEBHOOK_USERNAME": "your_webhook_user", // "N8N_WEBHOOK_PASSWORD": "your_webhook_password" }, // Ensure the server is enabled "disabled": false, // Default autoApprove settings "autoApprove": [] } // ... other servers might be configured here } }

Wichtige Punkte:

  • Ersetzen Sie /path/to/your/cloned/n8n-mcp-server/ durch den tatsächlichen absoluten Pfad, unter dem Sie das Repository geklont und erstellt haben.
  • Verwenden Sie das richtige Pfadtrennzeichen für Ihr Betriebssystem (Schrägstriche / für macOS/Linux, doppelte Backslashes \\ für Windows).
  • Stellen Sie sicher, dass Sie die richtige N8N_API_URL (einschließlich /api/v1 ) und N8N_API_KEY angeben.
  • Der Server muss erstellt werden ( npm run build ), bevor der Assistent die Datei build/index.js ausführen kann.

Verfügbare Tools

Der Server stellt die folgenden Tools bereit:

Verwenden von Webhooks

Dieser MCP-Server unterstützt die Ausführung von Workflows über n8n-Webhooks. So nutzen Sie diese Funktion:

  1. Erstellen Sie einen durch Webhook ausgelösten Workflow in n8n.
  2. Richten Sie die Basisauthentifizierung auf Ihrem Webhook-Knoten ein.
  3. Verwenden Sie das Tool run_webhook , um den Workflow auszulösen, und übergeben Sie nur den Workflow-Namen.

Beispiel:

const result = await useRunWebhook({ workflowName: "hello-world", // Will call <n8n-url>/webhook/hello-world data: { prompt: "Hello from AI assistant!" } });

Die Webhook-Authentifizierung wird automatisch mithilfe der Umgebungsvariablen N8N_WEBHOOK_USERNAME und N8N_WEBHOOK_PASSWORD durchgeführt.

Workflow-Management

  • workflow_list : Listet alle Workflows auf
  • workflow_get : Details zu einem bestimmten Workflow abrufen
  • workflow_create : Einen neuen Workflow erstellen
  • workflow_update : Aktualisieren Sie einen vorhandenen Workflow
  • workflow_delete : Einen Workflow löschen
  • workflow_activate : Aktiviert einen Workflow
  • workflow_deactivate : Einen Workflow deaktivieren

Ausführungsmanagement

  • execution_run : Ausführen eines Workflows über die API
  • run_webhook : Führen Sie einen Workflow über einen Webhook aus
  • execution_get : Details einer bestimmten Ausführung abrufen
  • execution_list : Listet Ausführungen für einen Workflow auf
  • execution_stop : Stoppt eine laufende Ausführung

Ressourcen

Der Server stellt die folgenden Ressourcen bereit:

  • n8n://workflows/list : Liste aller Workflows
  • n8n://workflow/{id} : Details eines bestimmten Workflows
  • n8n://executions/{workflowId} : Liste der Ausführungen für einen Workflow
  • n8n://execution/{id} : Details einer bestimmten Ausführung

Entwicklung

Gebäude

npm run build

Ausführen im Entwicklungsmodus

npm run dev

Testen

npm test

Fusseln

npm run lint

Lizenz

MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein Model Context Protocol-Server, der es KI-Assistenten ermöglicht, über natürliche Sprache mit n8n-Workflows zu interagieren und Aktionen wie das Auflisten, Erstellen, Aktualisieren, Ausführen und Überwachen von Workflows zu unterstützen.

  1. Überblick
    1. Installation
      1. Voraussetzungen
      2. Von npm installieren
      3. Von der Quelle installieren
      4. Docker-Installation
    2. Konfiguration
      1. Generieren eines n8n-API-Schlüssels
    3. Verwendung
      1. Ausführen des Servers
      2. Integration mit KI-Assistenten
    4. Verfügbare Tools
      1. Verwenden von Webhooks
      2. Workflow-Management
      3. Ausführungsmanagement
    5. Ressourcen
      1. Entwicklung
        1. Gebäude
        2. Ausführen im Entwicklungsmodus
        3. Testen
        4. Fusseln
      2. Lizenz

        Related MCP Servers

        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, providing access to n8n's complete API functionality including workflow management, user administration, and credential handling.
          Last updated -
          95
          JavaScript
          MIT License
          • Linux
          • Apple
        • -
          security
          F
          license
          -
          quality
          A comprehensive Model Context Protocol server implementation that enables AI assistants to interact with file systems, databases, GitHub repositories, web resources, and system tools while maintaining security and control.
          Last updated -
          16
          TypeScript
        • -
          security
          F
          license
          -
          quality
          A Model Context Protocol server that allows AI assistants to interact with Prefect's workflow automation platform through natural language, enabling users to manage flows, deployments, tasks, and other Prefect resources via conversational commands.
          Last updated -
          8
          Python
        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol server that allows AI assistants to invoke and interact with Integrator automation workflows through an API connection.
          Last updated -
          TypeScript
          MIT License

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/leonardsellem/n8n-mcp-server'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server