Servidor de IA de la tripulación MCP
MCP Crew AI Server es un servidor ligero basado en Python, diseñado para ejecutar, gestionar y crear flujos de trabajo de CrewAI. Este proyecto aprovecha el Protocolo de Contexto de Modelo (MCP) para comunicarse con Modelos de Lenguaje Grandes (LLM) y herramientas como Claude Desktop o Cursor IDE, lo que permite orquestar flujos de trabajo multiagente con facilidad.
Características
Configuración automática: carga automáticamente las configuraciones de agente y tarea desde dos archivos YAML (
agents.ymlytasks.yml), por lo que no necesita escribir código personalizado para configuraciones básicas.Flexibilidad de la línea de comandos: pase rutas personalizadas a sus archivos de configuración a través de argumentos de la línea de comandos (
--agentsy--tasks).Ejecución de flujo de trabajo sin inconvenientes: ejecute fácilmente flujos de trabajo preconfigurados a través de la herramienta
run_workflowde MCP.Desarrollo local: ejecuta el servidor localmente en modo STDIO, lo que lo hace ideal para desarrollo y pruebas.
Related MCP server: MCP Python Toolbox
Instalación
Hay varias formas de instalar el servidor MCP Crew AI:
Opción 1: Instalar desde PyPI (recomendado)
Opción 2: Instalar desde GitHub
Opción 3: Clonar e instalar
Requisitos
Python 3.11+
Kit de desarrollo de software de MCP
CrewAI
PyYAML
Configuración
agents.yml: Define tus agentes con roles, objetivos e historias de fondo.
task.yml: Define tareas con descripciones, resultados esperados y asígnalas a agentes.
Ejemplo
Ejemplo de
Uso
Una vez instalado, puedes ejecutar el servidor MCP CrewAI utilizando cualquiera de estos métodos:
Comando estándar de Python
Uso de la ejecución UV (uvx)
Para una experiencia más optimizada, puede utilizar el comando de ejecución UV:
O ejecute simplemente el servidor directamente:
Esto iniciará el servidor utilizando la configuración predeterminada de las variables de entorno.
Opciones de línea de comandos
--agents: Ruta al archivo YAML de los agentes (obligatorio)--tasks: Ruta al archivo YAML de tareas (obligatorio)--topic: El tema principal en el que trabajará la tripulación (predeterminado: "Inteligencia Artificial")--process: Tipo de proceso a utilizar (opciones: "secuencial" o "jerárquico", predeterminado: "secuencial")--verbose: Habilitar salida detallada--variables: cadena JSON o ruta a un archivo JSON con variables adicionales para reemplazar en archivos YAML--version: Muestra información de la versión y sale
Uso avanzado
También puedes proporcionar variables adicionales para usar en tus plantillas YAML:
Estas variables reemplazarán los marcadores de posición en sus archivos YAML. Por ejemplo, {topic} se reemplazará por "Machine Learning" y {year} por "2025".
Contribuyendo
¡Agradecemos sus contribuciones! Abra problemas o envíe solicitudes de incorporación de cambios con mejoras, correcciones de errores o nuevas funciones.
Licencia
Este proyecto está licenciado bajo la licencia MIT. Consulte el archivo de licencia para más detalles.
¡Feliz orquestación del flujo de trabajo!