Integrations
Used for configuration management to securely store API keys, database connection strings, and other environment-specific settings.
Used for version control and deployment of the MCP server codebase.
Used as the database backend for storing user interactions and tracking data for the AI customer support system.
Bot de atención al cliente con IA - Servidor MCP
Un servidor de Protocolo de Contexto de Modelo (MCP) que brinda soporte al cliente impulsado por IA mediante la integración de Cursor AI y Glama.ai.
Características
- Obtención de contexto en tiempo real desde Glama.ai
- Generación de respuestas impulsada por IA con Cursor AI
- Soporte de procesamiento por lotes
- Cola de prioridad
- Limitación de velocidad
- Seguimiento de la interacción del usuario
- Vigilancia de la salud
- Cumplimiento del protocolo MCP
Prerrequisitos
- Python 3.8+
- Base de datos PostgreSQL
- Clave API de Glama.ai
- Clave API de Cursor AI
Instalación
- Clonar el repositorio:
- Crear y activar un entorno virtual:
- Instalar dependencias:
- Cree un archivo
.env
basado en.env.example
:
- Configure su archivo
.env
con sus credenciales:
- Configurar la base de datos:
Ejecución del servidor
Iniciar el servidor:
El servidor estará disponible en http://localhost:8000
Puntos finales de API
1. Punto final raíz
Devuelve información básica del servidor.
2. Versión MCP
Devuelve las versiones del protocolo MCP compatibles.
3. Capacidades
Devuelve las capacidades del servidor y las funciones compatibles.
4. Solicitud de proceso
Procesar una sola consulta con contexto.
Ejemplo de solicitud:
5. Procesamiento por lotes
Procesar múltiples consultas en una sola solicitud.
Ejemplo de solicitud:
6. Chequeo de salud
Verifique la salud del servidor y el estado del servicio.
Limitación de velocidad
El servidor implementa la limitación de velocidad con los siguientes valores predeterminados:
- 100 solicitudes cada 60 segundos
- La información del límite de velocidad se incluye en el punto final de verificación de estado
- Las respuestas de límite de velocidad excedido incluyen tiempo de reinicio
Manejo de errores
El servidor devuelve respuestas de error estructuradas en el siguiente formato:
Códigos de error comunes:
RATE_LIMIT_EXCEEDED
: Límite de velocidad excedidoUNSUPPORTED_MCP_VERSION
: Versión de MCP no compatiblePROCESSING_ERROR
: Error al procesar la solicitudCONTEXT_FETCH_ERROR
: Error al obtener el contexto de Glama.aiBATCH_PROCESSING_ERROR
: Error al procesar la solicitud por lotes
Desarrollo
Estructura del proyecto
Añadiendo nuevas funciones
- Actualice
mcp_config.py
con nuevas opciones de configuración - Agregue nuevos modelos en
models.py
si es necesario - Crear nuevos puntos finales en
app.py
- Actualizar las capacidades del punto final para reflejar las nuevas funciones
Seguridad
- Todos los puntos finales de MCP requieren autenticación a través del encabezado
X-MCP-Auth
- Se implementa una limitación de velocidad para evitar el abuso.
- Las credenciales de la base de datos deben mantenerse seguras
- Las claves API nunca deben comprometerse con el control de versiones
Escucha
El servidor proporciona puntos finales de verificación de estado para supervisar:
- Estado del servicio
- Uso del límite de velocidad
- Servicios conectados
- Tiempos de procesamiento
Contribuyendo
- Bifurcar el repositorio
- Crear una rama de características
- Confirme sus cambios
- Empujar hacia la rama
- Crear una solicitud de extracción
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
Apoyo
Para obtener ayuda, cree un problema en el repositorio o comuníquese con el equipo de desarrollo.
This server cannot be installed
Un servidor de Protocolo de Contexto de Modelo (MCP) que brinda soporte al cliente impulsado por IA mediante la integración de Cursor AI y Glama.ai.