remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Allows forwarding requests to an Brightsy AI agent using an OpenAI-compatible format, enabling interaction with the agent through a standardized messages array with role and content properties.
Brightsy MCP 服务器
这是一个连接到 Brightsy AI 代理的模型上下文协议 (MCP) 服务器。
安装
用法
要启动服务器:
或者使用位置参数:
您还可以提供要发送给代理的初始消息:
自定义工具名称
默认情况下,MCP 服务器会注册一个名为“brightsy”的工具。您可以使用--tool-name
参数自定义此名称:
您还可以将工具名称设置为第三个位置参数:
或者使用BRIGHTSY_TOOL_NAME
环境变量:
环境变量
以下环境变量可用于配置服务器:
BRIGHTSY_AGENT_ID
:要使用的代理 ID(命令行参数的替代)BRIGHTSY_API_KEY
:要使用的 API 密钥(命令行参数的替代)BRIGHTSY_TOOL_NAME
:要注册的工具名称(默认值:“brightsy”)
测试agent_proxy工具
agent_proxy 工具允许您将请求代理到 Brightsy AI 代理。要测试此工具,您可以使用提供的测试脚本。
先决条件
在运行测试之前,请设置以下环境变量:
或者,您可以将这些值作为命令行参数传递:
运行测试
运行所有测试:
运行特定测试:
测试脚本
- 命令行测试(
test-agent-proxy.ts
):通过使用测试消息运行 MCP 服务器来测试 agent_proxy 工具。 - 直接 MCP 协议测试(
test-direct.ts
):通过直接向服务器发送格式正确的 MCP 请求来测试 agent_proxy 工具。
该工具的工作原理
MCP 服务器注册了一个工具(默认名为“brightsy”),用于将请求转发给兼容 OpenAI 的 AI 代理并返回响应。该工具接受一个messages
参数,该参数是一个包含role
和content
属性的消息对象数组。
MCP 客户端中的示例用法:
响应将在content
字段中包含代理的回复。
You must be authenticated.
Tools
实现模型上下文协议的服务器将 LLM 连接到 Brightsy AI 代理,允许用户向这些代理传递消息并接收来自这些代理的响应。