Skip to main content
Glama

MyAIServ MCP Server

Servidor MCP - API de protocolo de contexto de modelo

MCP Server es una implementación basada en FastAPI del Protocolo de contexto de modelo (MCP) que proporciona una interfaz estandarizada para la interacción entre modelos LLM y aplicaciones.

Peculiaridades

  • 🚀 API de alto rendimiento basada en FastAPI y operaciones asincrónicas
  • 🔄 Soporte completo de MCP con recursos, instrumentos, indicaciones y muestreo
  • 📊 Monitoreo y métricas a través de Prometheus y Grafana
  • 🧩 Extensibilidad a través de interfaces sencillas para agregar nuevas herramientas
  • 📝 API GraphQL para trabajar de forma flexible con datos
  • 💬 Compatibilidad con WebSockets para interacción en tiempo real
  • 🔍 Búsqueda semántica mediante integración con Elasticsearch
  • 🗃️ Almacenamiento en caché a través de Redis para un mejor rendimiento
  • 📦 Administre dependencias a través de Poetry para una gestión confiable de paquetes

Empezando

Instalación

  1. Repositorio de clones:
    git clone https://github.com/yourusername/myaiserv.git cd myaiserv
  2. Instalar Poetry (si aún no está instalado):
    curl -sSL https://install.python-poetry.org | python3 -
  3. Instalar dependencias mediante Poetry:
    poetry install

Iniciando el servidor

poetry run uvicorn app.main:app --host 0.0.0.0 --port 8000 --reload

O mediante la utilidad justa:

just run

Después del lanzamiento, la API estará disponible en: http://localhost:8000

Documentación de la API

Estructura del proyecto

myaiserv/ ├── app/ │ ├── core/ # Базовые компоненты MCP │ │ ├── base_mcp.py # Абстрактные классы MCP │ │ └── base_sampling.py # Базовые классы для сэмплирования │ ├── models/ # Pydantic модели │ │ ├── mcp.py # Модели данных MCP │ │ └── graphql.py # GraphQL схема │ ├── services/ # Бизнес-логика │ │ └── mcp_service.py # Сервис MCP │ ├── storage/ # Хранилище данных │ ├── tools/ # Инструменты MCP │ │ ├── example_tool.py # Примеры инструментов │ │ └── text_processor.py # Инструмент обработки текста │ ├── utils/ # Утилиты │ └── main.py # Точка входа FastAPI ├── app/tests/ # Тесты ├── docs/ # Документация │ └── MCP_API.md # Описание API ├── pyproject.toml # Конфигурация Poetry и инструментов └── .justfile # Задачи для утилиты just

Herramientas disponibles

Herramienta del sistema de archivos

Una herramienta del sistema de archivos que admite la lectura, escritura, eliminación y listado de archivos.

curl -X POST "http://localhost:8000/tools/file_operations" \ -H "Content-Type: application/json" \ -d '{"operation": "list", "path": "."}'

Herramienta meteorológica

Una herramienta para obtener datos meteorológicos por coordenadas.

curl -X POST "http://localhost:8000/tools/weather" \ -H "Content-Type: application/json" \ -d '{"latitude": 37.7749, "longitude": -122.4194}'

Herramienta de análisis de texto

Una herramienta para el análisis de texto, que incluye detección de sentimientos y resumen.

curl -X POST "http://localhost:8000/tools/text_analysis" \ -H "Content-Type: application/json" \ -d '{"text": "Example text for analysis", "analysis_type": "sentiment"}'

Herramienta de procesamiento de texto

Una herramienta para el procesamiento de texto, incluyendo formato, cálculo de estadísticas y extracción de entidades.

curl -X POST "http://localhost:8000/tools/text_processor" \ -H "Content-Type: application/json" \ -d '{"operation": "statistics", "text": "Example text", "stat_options": ["chars", "words"]}'

Herramienta de procesamiento de imágenes

Una herramienta de procesamiento de imágenes que permite cambiar el tamaño, recortar y aplicar filtros.

curl -X POST "http://localhost:8000/tools/image_processing" \ -H "Content-Type: application/json" \ -d '{"operation": "resize", "image_data": "base64...", "params": {"width": 800, "height": 600}}'

API de WebSocket

Para conectarse a la API de WebSocket:

const socket = new WebSocket("ws://localhost:8000/ws"); socket.onopen = () => { socket.send(JSON.stringify({ type: "initialize", id: "my-request-id" })); }; socket.onmessage = (event) => { const data = JSON.parse(event.data); console.log("Received:", data); };

API de GraphQL

Ejemplos de consultas mediante GraphQL:

# Получение списка всех инструментов query { getTools { name description } } # Выполнение инструмента mutation { executeTool(input: { name: "text_processor", parameters: { operation: "statistics", text: "Example text for analysis" } }) { content { type text } is_error } }

Ejecución de pruebas

Para ejecutar pruebas, utiliza Poetry:

poetry run pytest

O mediante la utilidad justa:

just test

Estibador

Compilación y ejecución mediante Docker Compose

docker compose up -d

Para iniciar servicios individuales:

docker compose up -d web redis elasticsearch

Integración con LLM

MCP Server proporciona una interfaz estandarizada para la integración con modelos LLM de varios proveedores:

import httpx async def query_mcp_with_llm(prompt: str): async with httpx.AsyncClient() as client: # Запрос к MCP для получения контекста и инструментов tools_response = await client.get("http://localhost:8000/tools") tools = tools_response.json()["tools"] # Отправка запроса к LLM с включением MCP контекста llm_response = await client.post( "https://api.example-llm.com/v1/chat", json={ "messages": [ {"role": "system", "content": "You have access to the following tools:"}, {"role": "user", "content": prompt} ], "tools": tools, "tool_choice": "auto" } ) return llm_response.json()

Métricas y seguimiento

El servidor MCP proporciona métricas en formato Prometheus a través del punto final /metrics . Las métricas incluyen:

  • Número de solicitudes a cada herramienta
  • Tiempo de ejecución de la consulta
  • Errores y excepciones

Desarrollo

Para formatear el código y comprobarlo con linters:

just fmt just lint

Licencia

Licencia MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Un servidor FastAPI de alto rendimiento compatible con el Protocolo de contexto de modelo (MCP) para una integración perfecta con modelos de lenguaje grandes, con API REST, GraphQL y WebSocket, junto con capacidades de búsqueda de vectores y monitoreo en tiempo real.

  1. Peculiaridades
    1. Empezando
      1. Instalación
      2. Iniciando el servidor
      3. Documentación de la API
    2. Estructura del proyecto
      1. Herramientas disponibles
        1. Herramienta del sistema de archivos
        2. Herramienta meteorológica
        3. Herramienta de análisis de texto
        4. Herramienta de procesamiento de texto
        5. Herramienta de procesamiento de imágenes
      2. API de WebSocket
        1. API de GraphQL
          1. Ejecución de pruebas
            1. Estibador
              1. Compilación y ejecución mediante Docker Compose
            2. Integración con LLM
              1. Métricas y seguimiento
                1. Desarrollo
                  1. Licencia

                    Related MCP Servers

                    • -
                      security
                      F
                      license
                      -
                      quality
                      A Model Context Protocol server that integrates with Cursor IDE, providing real-time communication, modern web dashboards, and extensible tools via SSE and WebSocket connections.
                      Last updated -
                      839
                      1
                      Python
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A server that enables Large Language Models to discover and interact with REST APIs defined by OpenAPI specifications through the Model Context Protocol.
                      Last updated -
                      378
                      96
                      TypeScript
                      MIT License
                      • Apple
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A Model Context Protocol server implementation that enables seamless integration with Claude and other MCP-compatible clients to access Prem AI's language models, RAG capabilities, and document management features.
                      Last updated -
                      JavaScript
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A Model Context Protocol server that exposes over 200+ APIs from API.market as MCP resources, allowing large language models to discover and interact with various APIs through natural language commands.
                      Last updated -
                      111
                      2
                      TypeScript
                      MIT License
                      • Apple

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/eagurin/myaiserv'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server