remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Enables vector search capabilities for AI queries, allowing efficient similarity searches and semantic retrieval of data stored in Elasticsearch indices.
Powers the REST, GraphQL, and WebSocket API interfaces, enabling different methods of interacting with the AI models through standardized endpoints.
Visualizes AI system metrics and performance data, providing dashboards for monitoring model behavior and operational health.
Servidor MCP - API de protocolo de contexto de modelo
MCP Server es una implementación basada en FastAPI del Protocolo de contexto de modelo (MCP) que proporciona una interfaz estandarizada para la interacción entre modelos LLM y aplicaciones.
Peculiaridades
- 🚀 API de alto rendimiento basada en FastAPI y operaciones asincrónicas
- 🔄 Soporte completo de MCP con recursos, instrumentos, indicaciones y muestreo
- 📊 Monitoreo y métricas a través de Prometheus y Grafana
- 🧩 Extensibilidad a través de interfaces sencillas para agregar nuevas herramientas
- 📝 API GraphQL para trabajar de forma flexible con datos
- 💬 Compatibilidad con WebSockets para interacción en tiempo real
- 🔍 Búsqueda semántica mediante integración con Elasticsearch
- 🗃️ Almacenamiento en caché a través de Redis para un mejor rendimiento
- 📦 Administre dependencias a través de Poetry para una gestión confiable de paquetes
Empezando
Instalación
- Repositorio de clones:Copy
- Instalar Poetry (si aún no está instalado):Copy
- Instalar dependencias mediante Poetry:Copy
Iniciando el servidor
O mediante la utilidad justa:
Después del lanzamiento, la API estará disponible en: http://localhost:8000
Documentación de la API
- Interfaz de usuario Swagger: http://localhost:8000/docs
- ReDoc: http://localhost:8000/redoc
- Zona de juegos de GraphQL: http://localhost:8000/graphql
Estructura del proyecto
Herramientas disponibles
Herramienta del sistema de archivos
Una herramienta del sistema de archivos que admite la lectura, escritura, eliminación y listado de archivos.
Herramienta meteorológica
Una herramienta para obtener datos meteorológicos por coordenadas.
Herramienta de análisis de texto
Una herramienta para el análisis de texto, que incluye detección de sentimientos y resumen.
Herramienta de procesamiento de texto
Una herramienta para el procesamiento de texto, incluyendo formato, cálculo de estadísticas y extracción de entidades.
Herramienta de procesamiento de imágenes
Una herramienta de procesamiento de imágenes que permite cambiar el tamaño, recortar y aplicar filtros.
API de WebSocket
Para conectarse a la API de WebSocket:
API de GraphQL
Ejemplos de consultas mediante GraphQL:
Ejecución de pruebas
Para ejecutar pruebas, utiliza Poetry:
O mediante la utilidad justa:
Estibador
Compilación y ejecución mediante Docker Compose
Para iniciar servicios individuales:
Integración con LLM
MCP Server proporciona una interfaz estandarizada para la integración con modelos LLM de varios proveedores:
Métricas y seguimiento
El servidor MCP proporciona métricas en formato Prometheus a través del punto final /metrics
. Las métricas incluyen:
- Número de solicitudes a cada herramienta
- Tiempo de ejecución de la consulta
- Errores y excepciones
Desarrollo
Para formatear el código y comprobarlo con linters:
Licencia
This server cannot be installed
Un servidor FastAPI de alto rendimiento compatible con el Protocolo de contexto de modelo (MCP) para una integración perfecta con modelos de lenguaje grandes, con API REST, GraphQL y WebSocket, junto con capacidades de búsqueda de vectores y monitoreo en tiempo real.
- Особенности
- Начало работы
- Структура проекта
- Доступные инструменты
- WebSocket API
- GraphQL API
- Запуск тестов
- Docker
- Интеграция с LLM
- Метрики и мониторинг
- Разработка
- Лицензия