Skip to main content
Glama
fabian1710
by fabian1710

MCP 对讲服务器

提供对 Intercom 对话和聊天的访问的模型上下文协议 (MCP) 服务器。该服务器允许 LLM 使用各种过滤选项查询和分析您的 Intercom 对话。

特征

  • 使用过滤选项查询 Intercom 对话:

    • 日期范围(开始日期和结束日期)

    • 客户 ID

    • 对话状态

  • 使用您的 Intercom API 密钥进行安全访问

  • 丰富的对话数据包括:

    • 基本对话细节

    • 联系信息

    • 统计数据(回复、重新打开)

    • 状态和优先级信息

Related MCP server: MCP Toolbox

安装

  1. 克隆存储库:

git clone https://github.com/fabian1710/mcp-intercom.git cd mcp-intercom
  1. 安装依赖项:

npm install
  1. 设置您的环境:

cp .env.example .env
  1. 将您的 Intercom API 密钥添加到.env

INTERCOM_API_KEY=your_api_key_here
  1. 构建服务器:

npm run build

用法

运行服务器

启动服务器:

npm start

与 Claude for Desktop 一起使用

  1. 将服务器添加到您的 Claude for Desktop 配置中(在 macOS 上为~/Library/Application Support/Claude/claude_desktop_config.json ,在 Windows 上为%AppData%\Claude\claude_desktop_config.json ):

{ "mcpServers": { "intercom": { "command": "node", "args": ["/path/to/mcp-intercom/dist/index.js"], "env": { "INTERCOM_API_KEY": "your_api_key_here" } } } }
  1. 重启 Claude 桌面版

可用工具

搜索对话

使用可选过滤器搜索对讲对话。

参数:

  • createdAt (可选):带有operator (例如“>”、“<”、“=”)和value (UNIX 时间戳)的对象,用于按创建日期进行过滤。

  • updatedAt (可选):带有operator (例如“>”、“<”、“=”)和value (UNIX 时间戳)的对象,用于按更新日期进行过滤。

  • sourceType (可选):对话的源类型(例如“电子邮件”、“聊天”)。

  • state (可选):要过滤的对话状态(例如“打开”、“关闭”)。

  • open (可选):布尔值,按打开状态进行过滤。

  • read (可选):布尔值,按读取状态进行过滤。

示例查询:

  • “搜索 2024 年 1 月 1 日之后创建的所有对话”

  • “查找上周之前更新的对话”

  • “列出所有打开的电子邮件对话”

  • “获取所有未读对话”

安全

  • 服务器需要 Intercom API 密钥才能运行

  • API 密钥应安全地存储在环境变量中

  • 服务器仅提供对对话的读取权限

  • 所有 API 请求均经过适当的身份验证

发展

  1. 通过自动重新编译启动开发模式:

npm run dev
  1. 运行 linting:

npm run lint

贡献

  1. 分叉存储库

  2. 为您的功能创建新的分支

  3. 进行更改

  4. 提交拉取请求

执照

麻省理工学院

One-click Deploy
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/fabian1710/mcp-intercom'

If you have feedback or need assistance with the MCP directory API, please join our Discord server