Skip to main content
Glama

Selector AI FastMCP

Selector AI FastMCP

Este repositorio proporciona una implementación completa del Protocolo de Contexto de Modelo (MCP) para Selector AI. Incluye un servidor con capacidad de streaming y un cliente interactivo basado en Docker que se comunica mediante stdin/stdout.

✨ Características

✅ Servidor

Compatible con FastMCP y basado en Python

Compatibilidad con transmisión SSE en tiempo real

Chat interactivo de IA con Selector AI

Texto repetitivo mínimo

Comprobación del estado integrada para la orquestación de contenedores

Registro de solicitudes/respuestas y reintentos

✅ Cliente

El cliente de Python genera un servidor a través de Docker

Admite acceso CLI y programático

Lectura y escritura a través de stdin y stdout

Configuración de variables de entorno mediante .env

🚀 Inicio rápido

Prerrequisitos

Python 3.8+

Estibador

Una clave API de Selector AI

URL de la API del selector

⚙️ Instalación

Clonar el repositorio

clon git https://github.com/automateyournetwork/selector-mcp-server

selector de cd-ai-mcp

Instalar dependencias de Python

pip install -r requisitos.txt

Establecer variables de entorno Cree un archivo .env:

SELECTOR_URL= https://la-url-de-su-api-selector

SELECTOR_AI_API_KEY=su-clave-api

Archivo Docker

El servidor se ejecuta en un contenedor liviano utilizando el siguiente Dockerfile:

DESDE python:3.11-slim

WORKDIR /aplicación

COPIA requisitos.txt .

EJECUTAR pip install -r requirements.txt

COPIAR . .

CMD ["python", "-u", "mcp_server.py"]

CONTROL DE SALUD --intervalo=30s --tiempo de espera=30s --periodo de inicio=5s
CMD python -c "importar socket; s = socket.socket(socket.AF_UNIX, socket.SOCK_STREAM); s.connect('/tmp/mcp.sock'); s.send(b'{"nombre_de_herramienta": "listo"}\n'); datos = s.recv(1024); s.close(); importar json; resultado = json.loads(datos); salir(0 si resultado.get('estado') == 'listo' de lo contrario 1)" || salir 1

Construir la imagen de Docker

docker build -t selector-mcp .

🧠 Uso del cliente

Iniciar el cliente

Esto generará el contenedor Docker y abrirá un shell interactivo.

mcp_client.py de Python

Ejemplo de sesión CLI

Tú>¿Qué es AIOps?

Selector> AIOps se refiere a la aplicación de IA a las operaciones de TI...

Acceso programático

desde selector_client importar call_tool, spawn_server

proc = servidor_de_generación()

call_tool(proc, "listo")

respuesta = call_tool(proc, "ask_selector", {"contenido": "¿Qué es AIOps?"})

imprimir(respuesta)

🖥️ Uso con Claude Desktop

Si se integra con Claude Desktop, puede ejecutar este servidor y exponer un socket o un punto final HTTP localmente:

Ejecute el servidor usando Docker o de forma nativa:

Python mcp_server.py

Conéctese al socket o al punto final HTTP desde la configuración de la herramienta externa de Claude Desktop.

Asegúrese de que sus mensajes coincidan con el formato:

{ "method": "tools/call", "tool_name": "ask_selector", "content": "What can you tell me about device S6?" }

Claude Desktop recibirá la respuesta estructurada de la IA a través de stdout.

🛠️ Construye tu propio contenedor

Para personalizar esta configuración:

Bifurcar o clonar este repositorio

Modifique el selector_fastmcp_server.py para integrar su modelo preferido o lógica de enrutamiento

Reconstruir la imagen de Docker:

docker build -t mi-mcp-personalizado .

Actualice el cliente para que genere my-custom-mcp en su lugar:

"docker", "ejecutar", "-i", "--rm", "mi-mcp-personalizado"

📁 Estructura del proyecto

selector-ai-mcp/

├── selector_fastmcp_server.py # Server: MCP + Selector AI integration ├── selector_client.py # Client: Docker + stdin/stdout CLI ├── Dockerfile # Container config ├── requirements.txt # Python deps ├── .env # Environment secrets └── README.md # You are here

✅ Requisitos

Dependencias en requirements.txt:

solicitudes

python-dotenv

📜 Licencia

Licencia Apache 2.0

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite un chat de IA interactivo en tiempo real con Selector AI a través de un servidor con capacidad de transmisión y un cliente basado en Docker que se comunica mediante stdin/stdout.

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol (MCP) server that enables AI assistants to control and interact with Android devices, allowing for device management, app debugging, system analysis, and UI automation through natural language commands.
    Last updated -
    29
    143
    Python
    Apache 2.0
    • Linux
    • Apple
  • -
    security
    F
    license
    -
    quality
    A Model Context Protocol (MCP) server that creates a bridge between AI language models and the Trakt.tv API, allowing LLMs to access real-time entertainment data and personal Trakt viewing history.
    Last updated -
    5
    Python
  • -
    security
    -
    license
    -
    quality
    An MCP server that allows AI assistants to utilize human capabilities by sending requests to humans and receiving their responses through a Streamlit UI.
    Last updated -
    23
    Python
    MIT License
  • A
    security
    A
    license
    A
    quality
    An official Model Context Protocol (MCP) server that enables AI clients to interact with ElevenLabs' Text to Speech and audio processing APIs, allowing for speech generation, voice cloning, audio transcription, and other audio-related tasks.
    Last updated -
    19
    700
    Python
    MIT License
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/automateyournetwork/selector-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server