Brightsy MCP Server

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Integrations

  • Allows forwarding requests to an Brightsy AI agent using an OpenAI-compatible format, enabling interaction with the agent through a standardized messages array with role and content properties.

Servidor MCP de Brightsy

Este es un servidor de Protocolo de Contexto de Modelo (MCP) que se conecta a un agente de Brightsy AI.

Instalación

npm install

Uso

Para iniciar el servidor:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key>

O con argumentos posicionales:

npm start -- <your-agent-id> <your-api-key> [tool-name] [message]

También puedes proporcionar un mensaje inicial para enviar al agente:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key> --message="Hello, agent!"

Personalizar el nombre de la herramienta

De forma predeterminada, el servidor MCP registra una herramienta llamada "brightsy". Puede personalizar este nombre con el parámetro --tool-name :

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key> --tool-name=<custom-tool-name>

También puede establecer el nombre de la herramienta como el tercer argumento posicional:

npm start -- <your-agent-id> <your-api-key> <custom-tool-name>

O utilizando la variable de entorno BRIGHTSY_TOOL_NAME :

export BRIGHTSY_TOOL_NAME=custom-tool-name npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key>

Variables de entorno

Las siguientes variables de entorno se pueden utilizar para configurar el servidor:

  • BRIGHTSY_AGENT_ID : El ID del agente a utilizar (alternativa al argumento de la línea de comandos)
  • BRIGHTSY_API_KEY : La clave API a utilizar (alternativa al argumento de la línea de comandos)
  • BRIGHTSY_TOOL_NAME : El nombre de la herramienta a registrar (predeterminado: "brightsy")

Prueba de la herramienta agent_proxy

La herramienta agent_proxy permite redirigir solicitudes a un agente de Brightsy AI. Para probar esta herramienta, puede usar los scripts de prueba proporcionados.

Prerrequisitos

Antes de ejecutar las pruebas, configure las siguientes variables de entorno:

export AGENT_ID=your-agent-id export API_KEY=your-api-key # Optional: customize the tool name for testing export TOOL_NAME=custom-tool-name

Alternativamente, puede pasar estos valores como argumentos de línea de comando:

# Using named arguments npm run test:cli -- --agent-id=your-agent-id --api-key=your-api-key --tool-name=custom-tool-name # Using positional arguments npm run test:cli -- your-agent-id your-api-key custom-tool-name

Ejecución de las pruebas

Para ejecutar todas las pruebas:

npm test

Para ejecutar pruebas específicas:

# Test using the command line interface npm run test:cli # Test using the direct MCP protocol npm run test:direct

Scripts de prueba

  1. Prueba de línea de comandos ( test-agent-proxy.ts ): prueba la herramienta agent_proxy ejecutando el servidor MCP con un mensaje de prueba.
  2. Prueba de protocolo MCP directa ( test-direct.ts ): prueba la herramienta agent_proxy enviando una solicitud MCP con el formato correcto directamente al servidor.

Cómo funciona la herramienta

El servidor MCP registra una herramienta (denominada "brightsy" por defecto) que reenvía las solicitudes a un agente de IA compatible con OpenAI y devuelve la respuesta. Recibe un parámetro messages , que es una matriz de objetos de mensaje con propiedades role y content .

Ejemplo de uso en un cliente MCP:

// Using the default tool name const response = await client.callTool("brightsy", { messages: [ { role: "user", content: "Hello, can you help me with a simple task?" } ] }); // Or using a custom tool name if configured const response = await client.callTool("custom-tool-name", { messages: [ { role: "user", content: "Hello, can you help me with a simple task?" } ] });

La respuesta contendrá la respuesta del agente en el campo content .

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Un servidor que implementa el Protocolo de Contexto de Modelo para conectar LLM a agentes de Brightsy AI, lo que permite a los usuarios enviar mensajes y recibir respuestas de estos agentes.

  1. Installation
    1. Usage
      1. Customizing the Tool Name
      2. Environment Variables
    2. Testing the agent_proxy Tool
      1. Prerequisites
      2. Running the Tests
      3. Test Scripts
    3. How the Tool Works
      ID: 9u6g2y8vk6