Skip to main content
Glama
gabrielpierobon

MCP Server for n8n Integration

用于 n8n 集成的 MCP 服务器

该项目实现了一个模型上下文协议 (MCP) 服务器,旨在与您的本地 n8n 服务器无缝协作。MCP 服务器使 AI 代理能够通过标准化协议与您的 n8n 工作流和工具进行交互。

概述

模型上下文协议 (MCP) 是一种允许 AI 代理与外部工具和服务交互的规范。此实现特别侧重于与强大的工作流自动化平台 n8n 集成,从而使 AI 代理能够:

  • 执行 n8n 工作流程

  • 访问 n8n 工具和功能

  • 通过标准化界面与您的自动化工作流程进行交互

该服务器现在采用模块化方法设计,工具位于专用tools目录中,使其更易于管理和扩展。

Related MCP server: MCP Toolkit

特征

  • 与 n8n 兼容的 MCP 服务器实现

  • 模块化工具设计:工具组织在单独的tools目录中,可以轻松添加和管理新功能。

  • 支持 SSE(服务器发送事件)端点

  • 身份验证支持(Bearer 和通用标头方法)

  • 工具选择和过滤功能

  • 与本地 n8n 服务器集成

入门

  1. 克隆此存储库

  2. 设置 Python 虚拟环境

  3. 安装依赖项

  4. 配置您的 n8n 服务器连接

  5. 启动 MCP 服务器

与 n8n 集成

此 MCP 服务器与 n8n MCP 客户端工具节点配合使用,可让您:

  • 连接到外部 MCP 服务器

  • 向 AI 代理公开特定工具

  • 控制哪些工具可用于您的 AI 工作流程

  • 管理身份验证和安全

文档

有关模型上下文协议和 n8n 集成的更多信息,请参阅:

执照

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

-
security - not tested
F
license - not found
-
quality - not tested

Appeared in Searches

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/gabrielpierobon/mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server