Skip to main content
Glama

n8n MCP Server

Servidor MCP n8n

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los asistentes de IA interactuar con flujos de trabajo n8n a través del lenguaje natural.

Descripción general

Este servidor MCP proporciona herramientas y recursos para que los asistentes de IA gestionen los flujos de trabajo y las ejecuciones de n8n. Permite a los asistentes:

  • Enumerar, crear, actualizar y eliminar flujos de trabajo
  • Activar y desactivar flujos de trabajo
  • Ejecutar flujos de trabajo y supervisar su estado
  • Acceder a la información del flujo de trabajo y a las estadísticas de ejecución

Instalación

Prerrequisitos

  • Node.js 18 o posterior
  • Instancia n8n con acceso API habilitado

Instalar desde npm

npm install -g n8n-mcp-server

Instalar desde la fuente

# Clone the repository git clone https://github.com/leonardsellem/n8n-mcp-server.git cd n8n-mcp-server # Install dependencies npm install # Build the project npm run build # Optional: Install globally npm install -g .

Instalación de Docker

También puedes ejecutar el servidor usando Docker:

# Pull the image docker pull leonardsellem/n8n-mcp-server # Run the container with your n8n API configuration docker run -e N8N_API_URL=http://your-n8n:5678/api/v1 \ -e N8N_API_KEY=your_n8n_api_key \ -e N8N_WEBHOOK_USERNAME=username \ -e N8N_WEBHOOK_PASSWORD=password \ leonardsellem/n8n-mcp-server

Configuración

Crea un archivo .env en el directorio donde ejecutarás el servidor, usando .env.example como plantilla:

cp .env.example .env

Configure las siguientes variables de entorno:

VariableDescripciónEjemplo
N8N_API_URLURL completa de la API n8n, incluido /api/v1http://localhost:5678/api/v1
N8N_API_KEYClave API para autenticarse con n8nn8n_api_...
N8N_WEBHOOK_USERNAMENombre de usuario para la autenticación de webhook (si se utilizan webhooks)username
N8N_WEBHOOK_PASSWORDContraseña para la autenticación del webhookpassword
DEBUGHabilitar el registro de depuración (opcional)true o false

Generar una clave API n8n

  1. Abra su instancia n8n en un navegador
  2. Vaya a Configuración > API > Claves API
  3. Cree una nueva clave API con los permisos adecuados
  4. Copia la clave a tu archivo .env

Uso

Ejecución del servidor

Desde el directorio de instalación:

n8n-mcp-server

O si se instala globalmente:

n8n-mcp-server

Integración con asistentes de IA

Después de compilar el servidor ( npm run build ), debes configurar tu asistente de IA (como VS Code con la extensión Claude o la aplicación Claude Desktop) para ejecutarlo. Esto suele implicar editar un archivo de configuración JSON.

Ejemplo de configuración (por ejemplo, en VS Code settings.json o Claude Desktop claude_desktop_config.json ):

{ "mcpServers": { // Give your server a unique name "n8n-local": { // Use 'node' to execute the built JavaScript file "command": "node", // Provide the *absolute path* to the built index.js file "args": [ "/path/to/your/cloned/n8n-mcp-server/build/index.js" // On Windows, use double backslashes: // "C:\\path\\to\\your\\cloned\\n8n-mcp-server\\build\\index.js" ], // Environment variables needed by the server "env": { "N8N_API_URL": "http://your-n8n-instance:5678/api/v1", // Replace with your n8n URL "N8N_API_KEY": "YOUR_N8N_API_KEY", // Replace with your key // Add webhook credentials only if you plan to use webhook tools // "N8N_WEBHOOK_USERNAME": "your_webhook_user", // "N8N_WEBHOOK_PASSWORD": "your_webhook_password" }, // Ensure the server is enabled "disabled": false, // Default autoApprove settings "autoApprove": [] } // ... other servers might be configured here } }

Puntos clave:

  • Reemplace /path/to/your/cloned/n8n-mcp-server/ con la ruta absoluta real donde clonó y construyó el repositorio.
  • Utilice el separador de ruta correcto para su sistema operativo (barras diagonales / para macOS/Linux, barras diagonales inversas dobles \\ para Windows).
  • Asegúrese de proporcionar la N8N_API_URL correcta (incluido /api/v1 ) y N8N_API_KEY .
  • Es necesario construir el servidor ( npm run build ) antes de que el asistente pueda ejecutar el archivo build/index.js .

Herramientas disponibles

El servidor proporciona las siguientes herramientas:

Uso de webhooks

Este servidor MCP permite ejecutar flujos de trabajo mediante webhooks n8n. Para usar esta funcionalidad:

  1. Cree un flujo de trabajo activado por webhook en n8n.
  2. Configure la autenticación básica en su nodo webhook.
  3. Utilice la herramienta run_webhook para activar el flujo de trabajo, pasando solo el nombre del flujo de trabajo.

Ejemplo:

const result = await useRunWebhook({ workflowName: "hello-world", // Will call <n8n-url>/webhook/hello-world data: { prompt: "Hello from AI assistant!" } });

La autenticación del webhook se gestiona automáticamente mediante las variables de entorno N8N_WEBHOOK_USERNAME y N8N_WEBHOOK_PASSWORD .

Gestión del flujo de trabajo

  • workflow_list : Lista todos los flujos de trabajo
  • workflow_get : Obtener detalles de un flujo de trabajo específico
  • workflow_create : Crea un nuevo flujo de trabajo
  • workflow_update : Actualizar un flujo de trabajo existente
  • workflow_delete : Eliminar un flujo de trabajo
  • workflow_activate : Activar un flujo de trabajo
  • workflow_deactivate : Desactivar un flujo de trabajo

Gestión de la ejecución

  • execution_run : Ejecutar un flujo de trabajo a través de la API
  • run_webhook : Ejecutar un flujo de trabajo a través de un webhook
  • execution_get : Obtener detalles de una ejecución específica
  • execution_list : Lista las ejecuciones de un flujo de trabajo
  • execution_stop : Detener una ejecución en ejecución

Recursos

El servidor proporciona los siguientes recursos:

  • n8n://workflows/list : Lista de todos los flujos de trabajo
  • n8n://workflow/{id} : Detalles de un flujo de trabajo específico
  • n8n://executions/{workflowId} : Lista de ejecuciones para un flujo de trabajo
  • n8n://execution/{id} : Detalles de una ejecución específica

Desarrollo

Edificio

npm run build

Ejecutando en modo de desarrollo

npm run dev

Pruebas

npm test

Pelusa

npm run lint

Licencia

Instituto Tecnológico de Massachusetts (MIT)

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor de protocolo de contexto de modelo que permite a los asistentes de IA interactuar con flujos de trabajo n8n a través del lenguaje natural, admitiendo acciones como enumerar, crear, actualizar, ejecutar y supervisar flujos de trabajo.

  1. Descripción general
    1. Instalación
      1. Prerrequisitos
      2. Instalar desde npm
      3. Instalar desde la fuente
      4. Instalación de Docker
    2. Configuración
      1. Generar una clave API n8n
    3. Uso
      1. Ejecución del servidor
      2. Integración con asistentes de IA
    4. Herramientas disponibles
      1. Uso de webhooks
      2. Gestión del flujo de trabajo
      3. Gestión de la ejecución
    5. Recursos
      1. Desarrollo
        1. Edificio
        2. Ejecutando en modo de desarrollo
        3. Pruebas
        4. Pelusa
      2. Licencia

        Related MCP Servers

        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, providing access to n8n's complete API functionality including workflow management, user administration, and credential handling.
          Last updated -
          95
          JavaScript
          MIT License
          • Linux
          • Apple
        • -
          security
          F
          license
          -
          quality
          A comprehensive Model Context Protocol server implementation that enables AI assistants to interact with file systems, databases, GitHub repositories, web resources, and system tools while maintaining security and control.
          Last updated -
          16
          TypeScript
        • -
          security
          F
          license
          -
          quality
          A Model Context Protocol server that allows AI assistants to interact with Prefect's workflow automation platform through natural language, enabling users to manage flows, deployments, tasks, and other Prefect resources via conversational commands.
          Last updated -
          4
          Python
        • -
          security
          A
          license
          -
          quality
          A Model Context Protocol server that allows AI assistants to invoke and interact with Integrator automation workflows through an API connection.
          Last updated -
          TypeScript
          MIT License

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/leonardsellem/n8n-mcp-server'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server