Skip to main content
Glama

Brightsy MCP Server

by mattlevine

Servidor MCP de Brightsy

Este es un servidor de Protocolo de Contexto de Modelo (MCP) que se conecta a un agente de Brightsy AI.

Instalación

npm install

Uso

Para iniciar el servidor:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key>

O con argumentos posicionales:

npm start -- <your-agent-id> <your-api-key> [tool-name] [message]

También puedes proporcionar un mensaje inicial para enviar al agente:

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key> --message="Hello, agent!"

Personalizar el nombre de la herramienta

De forma predeterminada, el servidor MCP registra una herramienta llamada "brightsy". Puede personalizar este nombre con el parámetro --tool-name :

npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key> --tool-name=<custom-tool-name>

También puede establecer el nombre de la herramienta como el tercer argumento posicional:

npm start -- <your-agent-id> <your-api-key> <custom-tool-name>

O utilizando la variable de entorno BRIGHTSY_TOOL_NAME :

export BRIGHTSY_TOOL_NAME=custom-tool-name npm start -- --agent-id=<your-agent-id> --api-key=<your-api-key>

Variables de entorno

Las siguientes variables de entorno se pueden utilizar para configurar el servidor:

  • BRIGHTSY_AGENT_ID : El ID del agente a utilizar (alternativa al argumento de la línea de comandos)
  • BRIGHTSY_API_KEY : La clave API a utilizar (alternativa al argumento de la línea de comandos)
  • BRIGHTSY_TOOL_NAME : El nombre de la herramienta a registrar (predeterminado: "brightsy")

Prueba de la herramienta agent_proxy

La herramienta agent_proxy permite redirigir solicitudes a un agente de Brightsy AI. Para probar esta herramienta, puede usar los scripts de prueba proporcionados.

Prerrequisitos

Antes de ejecutar las pruebas, configure las siguientes variables de entorno:

export AGENT_ID=your-agent-id export API_KEY=your-api-key # Optional: customize the tool name for testing export TOOL_NAME=custom-tool-name

Alternativamente, puede pasar estos valores como argumentos de línea de comando:

# Using named arguments npm run test:cli -- --agent-id=your-agent-id --api-key=your-api-key --tool-name=custom-tool-name # Using positional arguments npm run test:cli -- your-agent-id your-api-key custom-tool-name

Ejecución de las pruebas

Para ejecutar todas las pruebas:

npm test

Para ejecutar pruebas específicas:

# Test using the command line interface npm run test:cli # Test using the direct MCP protocol npm run test:direct

Scripts de prueba

  1. Prueba de línea de comandos ( test-agent-proxy.ts ): prueba la herramienta agent_proxy ejecutando el servidor MCP con un mensaje de prueba.
  2. Prueba de protocolo MCP directa ( test-direct.ts ): prueba la herramienta agent_proxy enviando una solicitud MCP con el formato correcto directamente al servidor.

Cómo funciona la herramienta

El servidor MCP registra una herramienta (denominada "brightsy" por defecto) que reenvía las solicitudes a un agente de IA compatible con OpenAI y devuelve la respuesta. Recibe un parámetro messages , que es una matriz de objetos de mensaje con propiedades role y content .

Ejemplo de uso en un cliente MCP:

// Using the default tool name const response = await client.callTool("brightsy", { messages: [ { role: "user", content: "Hello, can you help me with a simple task?" } ] }); // Or using a custom tool name if configured const response = await client.callTool("custom-tool-name", { messages: [ { role: "user", content: "Hello, can you help me with a simple task?" } ] });

La respuesta contendrá la respuesta del agente en el campo content .

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor que implementa el Protocolo de Contexto de Modelo para conectar LLM a agentes de Brightsy AI, lo que permite a los usuarios enviar mensajes y recibir respuestas de estos agentes.

  1. Instalación
    1. Uso
      1. Personalizar el nombre de la herramienta
      2. Variables de entorno
    2. Prueba de la herramienta agent\_proxy
      1. Prerrequisitos
      2. Ejecución de las pruebas
      3. Scripts de prueba
    3. Cómo funciona la herramienta

      Related MCP Servers

      • A
        security
        A
        license
        A
        quality
        A Model Context Protocol server that gives LLMs the ability to interact with Ethereum networks, manage wallets, query blockchain data, and execute smart contract operations through a standardized interface.
        Last updated -
        31
        323
        2
        TypeScript
        MIT License
      • -
        security
        A
        license
        -
        quality
        A Model Context Protocol Server that enables LLMs to interact with and execute REST API calls through natural language prompts, supporting GET/PUT/POST/PATCH operations on configured APIs.
        Last updated -
        5
        Python
        Apache 2.0
      • -
        security
        F
        license
        -
        quality
        A Model Context Protocol server that enables conversational LLMs to delegate complex research tasks to specialized AI agents powered by various OpenRouter models, coordinated by a Claude orchestrator.
        Last updated -
        10
        JavaScript
        • Apple
      • -
        security
        -
        license
        -
        quality
        An MCP server that enables LLMs to interact with Agent-to-Agent (A2A) protocol compatible agents, allowing for sending messages, tracking tasks, and receiving streaming responses.
        Last updated -
        3
        TypeScript

      View all related MCP servers

      MCP directory API

      We provide all the information about MCP servers via our MCP API.

      curl -X GET 'https://glama.ai/api/mcp/v1/servers/mattlevine/brightsy-mcp'

      If you have feedback or need assistance with the MCP directory API, please join our Discord server