Skip to main content
Glama

Brightsy MCP Server

by mattlevine

Brightsy MCP 服务器

这是一个连接到 Brightsy AI 代理的模型上下文协议 (MCP) 服务器。

安装

npm install

用法

要启动服务器:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key>

或者使用位置参数:

npm start -- <your-agent-id> <your-api-key> [tool-name] [message]

您还可以提供要发送给代理的初始消息:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key> --message="Hello, agent!"

自定义工具名称

默认情况下,MCP 服务器会注册一个名为“brightsy”的工具。您可以使用--tool-name参数自定义此名称:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key> --tool-name=<custom-tool-name>

您还可以将工具名称设置为第三个位置参数:

npm start -- <your-agent-id> <your-api-key> <custom-tool-name>

或者使用BRIGHTSY_TOOL_NAME环境变量:

export BRIGHTSY_TOOL_NAME=custom-tool-name npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key>

环境变量

以下环境变量可用于配置服务器:

  • BRIGHTSY_AGENT_ID :要使用的代理 ID(命令行参数的替代)
  • BRIGHTSY_API_KEY :要使用的 API 密钥(命令行参数的替代)
  • BRIGHTSY_TOOL_NAME :要注册的工具名称(默认值:“brightsy”)

测试agent_proxy工具

agent_proxy 工具允许您将请求代理到 Brightsy AI 代理。要测试此工具,您可以使用提供的测试脚本。

先决条件

在运行测试之前,请设置以下环境变量:

export AGENT_ID=your-agent-id export API_KEY=your-api-key # Optional: customize the tool name for testing export TOOL_NAME=custom-tool-name

或者,您可以将这些值作为命令行参数传递:

# Using named arguments npm run test:cli -- --agent-id=your-agent-id --api-key=your-api-key --tool-name=custom-tool-name # Using positional arguments npm run test:cli -- your-agent-id your-api-key custom-tool-name

运行测试

运行所有测试:

npm test

运行特定测试:

# Test using the command line interface npm run test:cli # Test using the direct MCP protocol npm run test:direct

测试脚本

  1. 命令行测试test-agent-proxy.ts ):通过使用测试消息运行 MCP 服务器来测试 agent_proxy 工具。
  2. 直接 MCP 协议测试test-direct.ts ):通过直接向服务器发送格式正确的 MCP 请求来测试 agent_proxy 工具。

该工具的工作原理

MCP 服务器注册了一个工具(默认名为“brightsy”),用于将请求转发给兼容 OpenAI 的 AI 代理并返回响应。该工具接受一个messages参数,该参数是一个包含rolecontent属性的消息对象数组。

MCP 客户端中的示例用法:

// Using the default tool name const response = await client.callTool("brightsy", { messages: [ { role: "user", content: "Hello, can you help me with a simple task?" } ] }); // Or using a custom tool name if configured const response = await client.callTool("custom-tool-name", { messages: [ { role: "user", content: "Hello, can you help me with a simple task?" } ] });

响应将在content字段中包含代理的回复。

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

实现模型上下文协议的服务器将 LLM 连接到 Brightsy AI 代理,允许用户向这些代理传递消息并接收来自这些代理的响应。

  1. 安装
    1. 用法
      1. 自定义工具名称
      2. 环境变量
    2. 测试agent\_proxy工具
      1. 先决条件
      2. 运行测试
      3. 测试脚本
    3. 该工具的工作原理

      Related MCP Servers

      • A
        security
        A
        license
        A
        quality
        A Model Context Protocol server that gives LLMs the ability to interact with Ethereum networks, manage wallets, query blockchain data, and execute smart contract operations through a standardized interface.
        Last updated -
        31
        323
        2
        TypeScript
        MIT License
      • -
        security
        A
        license
        -
        quality
        A Model Context Protocol Server that enables LLMs to interact with and execute REST API calls through natural language prompts, supporting GET/PUT/POST/PATCH operations on configured APIs.
        Last updated -
        5
        Python
        Apache 2.0
      • -
        security
        F
        license
        -
        quality
        A Model Context Protocol server that enables conversational LLMs to delegate complex research tasks to specialized AI agents powered by various OpenRouter models, coordinated by a Claude orchestrator.
        Last updated -
        10
        JavaScript
        • Apple
      • -
        security
        -
        license
        -
        quality
        An MCP server that enables LLMs to interact with Agent-to-Agent (A2A) protocol compatible agents, allowing for sending messages, tracking tasks, and receiving streaming responses.
        Last updated -
        3
        TypeScript

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/mattlevine/brightsy-mcp'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server