Integrations
Provides tools for running, managing and creating CrewAI workflows, enabling multi-agent operations through configuration in YAML files.
Enables installation directly from GitHub repository, with the server code hosted on GitHub.
Allows installation of the MCP Crew AI server package directly from the Python Package Index.
Servidor de IA de la tripulación MCP
MCP Crew AI Server es un servidor ligero basado en Python, diseñado para ejecutar, gestionar y crear flujos de trabajo de CrewAI. Este proyecto aprovecha el Protocolo de Contexto de Modelo (MCP) para comunicarse con Modelos de Lenguaje Grandes (LLM) y herramientas como Claude Desktop o Cursor IDE, lo que permite orquestar flujos de trabajo multiagente con facilidad.
Características
- Configuración automática: carga automáticamente las configuraciones de agente y tarea desde dos archivos YAML (
agents.yml
ytasks.yml
), por lo que no necesita escribir código personalizado para configuraciones básicas. - Flexibilidad de la línea de comandos: pase rutas personalizadas a sus archivos de configuración a través de argumentos de la línea de comandos (
--agents
y--tasks
). - Ejecución de flujo de trabajo sin inconvenientes: ejecute fácilmente flujos de trabajo preconfigurados a través de la herramienta
run_workflow
de MCP. - Desarrollo local: ejecuta el servidor localmente en modo STDIO, lo que lo hace ideal para desarrollo y pruebas.
Instalación
Hay varias formas de instalar el servidor MCP Crew AI:
Opción 1: Instalar desde PyPI (recomendado)
Opción 2: Instalar desde GitHub
Opción 3: Clonar e instalar
Requisitos
- Python 3.11+
- Kit de desarrollo de software de MCP
- CrewAI
- PyYAML
Configuración
- agents.yml: Define tus agentes con roles, objetivos e historias de fondo.
- task.yml: Define tareas con descripciones, resultados esperados y asígnalas a agentes.
Ejemplo agents.yml
:
Ejemplo de tasks.yml
:
Uso
Una vez instalado, puedes ejecutar el servidor MCP CrewAI utilizando cualquiera de estos métodos:
Comando estándar de Python
Uso de la ejecución UV (uvx)
Para una experiencia más optimizada, puede utilizar el comando de ejecución UV:
O ejecute simplemente el servidor directamente:
Esto iniciará el servidor utilizando la configuración predeterminada de las variables de entorno.
Opciones de línea de comandos
--agents
: Ruta al archivo YAML de los agentes (obligatorio)--tasks
: Ruta al archivo YAML de tareas (obligatorio)--topic
: El tema principal en el que trabajará la tripulación (predeterminado: "Inteligencia Artificial")--process
: Tipo de proceso a utilizar (opciones: "secuencial" o "jerárquico", predeterminado: "secuencial")--verbose
: Habilitar salida detallada--variables
: cadena JSON o ruta a un archivo JSON con variables adicionales para reemplazar en archivos YAML--version
: Muestra información de la versión y sale
Uso avanzado
También puedes proporcionar variables adicionales para usar en tus plantillas YAML:
Estas variables reemplazarán los marcadores de posición en sus archivos YAML. Por ejemplo, {topic}
se reemplazará por "Machine Learning" y {year}
por "2025".
Contribuyendo
¡Agradecemos sus contribuciones! Abra problemas o envíe solicitudes de incorporación de cambios con mejoras, correcciones de errores o nuevas funciones.
Licencia
Este proyecto está licenciado bajo la licencia MIT. Consulte el archivo de licencia para más detalles.
¡Feliz orquestación del flujo de trabajo!
This server cannot be installed
Un servidor liviano basado en Python diseñado para ejecutar, administrar y crear flujos de trabajo de CrewAI utilizando el Protocolo de contexto de modelo para comunicarse con LLM y herramientas como Claude Desktop o Cursor IDE.