remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Supports environment variable configuration through .env files when running with Docker, as shown in the docker run command with --env-file flag.
Provides Docker support for building and running the MCP server in containers, with detailed instructions for Docker deployment.
The MCP server is built on FastAPI, leveraging its ecosystem for automatic OpenAPI documentation generation, dependency injection, middleware support, validation, and async capabilities.
Impresionante MCP FastAPI
Una poderosa implementación basada en FastAPI del Protocolo de Contexto de Modelo (MCP) con capacidades de registro de herramientas mejoradas, que aprovecha el ecosistema maduro de FastAPI.
Descripción general
Awesome MCP FastAPI es una implementación lista para producción del Protocolo de Contexto de Modelo que mejora y amplía la funcionalidad estándar de MCP al integrarla con el robusto ecosistema de FastAPI. Este proyecto proporciona un sistema de registro de herramientas mejorado que facilita la creación, gestión y documentación de herramientas de IA para Modelos de Lenguaje Grandes (LLM).
Por qué es mejor que el MCP estándar
Si bien el Protocolo de Contexto de Modelo proporciona una base sólida para conectar modelos de IA con herramientas y fuentes de datos, nuestra implementación ofrece varias ventajas importantes:
Ecosistema maduro de FastAPI
- Marco web listo para producción : creado sobre FastAPI, un marco web moderno y de alto rendimiento con generación automática de documentación OpenAPI.
- Inyección de dependencia : aproveche el potente sistema de inyección de dependencia de FastAPI para obtener un código más fácil de mantener y probar.
- Compatibilidad con middleware : fácil integración con autenticación, monitoreo y otros componentes de middleware.
- Validación incorporada : integración de Pydantic para una validación sólida de solicitudes/respuestas y modelado de datos.
- Compatibilidad asíncrona : compatibilidad de primera clase con patrones asíncronos/en espera para aplicaciones de alta concurrencia.
Registro de herramientas mejorado
Nuestra implementación mejora el registro de herramientas MCP estándar mediante:
- Generación automática de documentación : las herramientas se documentan automáticamente tanto en formato MCP como en la especificación OpenAPI.
- Sugerencias de tipo mejoradas : extracción de información de tipo mejorada para mejores herramientas y soporte IDE.
- Definiciones de esquema más completas : definiciones de esquema JSON más expresivas para entradas y salidas de herramientas.
- Mejor manejo de errores : respuestas de errores estructuradas con información detallada.
- Compatibilidad mejorada con cadenas de documentación : mejor extracción de documentación de cadenas de documentación de Python.
Características adicionales
- Compatibilidad con CORS : listo para solicitudes de origen cruzado, lo que facilita la integración con aplicaciones web.
- Gestión de vida útil : inicialización y limpieza adecuadas de recursos a través de la API de vida útil de FastAPI.
Empezando
Prerrequisitos
- Python 3.10+
Instalación
Ejecución del servidor
Visita http://localhost:8000/docs para ver la documentación de OpenAPI.
Uso
Creando una herramienta
Acceso a herramientas a través de MCP
Los LLM pueden descubrir y usar sus herramientas mediante el Protocolo de Contexto de Modelo. Ejemplo con Claude:
Claude encontrará y utilizará automáticamente su herramienta calculadora para realizar el cálculo.
Arquitectura
Nuestra aplicación sigue una arquitectura modular:
Soporte de Docker
Construir y ejecutar con Docker:
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
This server cannot be installed
Un servidor MCP listo para producción creado con FastAPI, que proporciona un registro de herramientas mejorado para crear, administrar y documentar herramientas de IA para modelos de lenguaje grandes (LLM).
- Overview
- Why This Is Better Than Standard MCP
- Getting Started
- Usage
- Architecture
- Docker Support
- Contributing
- License