Servidor de IA de la tripulación MCP
MCP Crew AI Server es un servidor ligero basado en Python, diseñado para ejecutar, gestionar y crear flujos de trabajo de CrewAI. Este proyecto aprovecha el Protocolo de Contexto de Modelo (MCP) para comunicarse con Modelos de Lenguaje Grandes (LLM) y herramientas como Claude Desktop o Cursor IDE, lo que permite orquestar flujos de trabajo multiagente con facilidad.
Características
Configuración automática: carga automáticamente las configuraciones de agente y tarea desde dos archivos YAML (
agents.ymlytasks.yml), por lo que no necesita escribir código personalizado para configuraciones básicas.Flexibilidad de la línea de comandos: pase rutas personalizadas a sus archivos de configuración a través de argumentos de la línea de comandos (
--agentsy--tasks).Ejecución de flujo de trabajo sin inconvenientes: ejecute fácilmente flujos de trabajo preconfigurados a través de la herramienta
run_workflowde MCP.Desarrollo local: ejecuta el servidor localmente en modo STDIO, lo que lo hace ideal para desarrollo y pruebas.
Related MCP server: MCP Python Toolbox
Instalación
Hay varias formas de instalar el servidor MCP Crew AI:
Opción 1: Instalar desde PyPI (recomendado)
pip install mcp-crew-aiOpción 2: Instalar desde GitHub
pip install git+https://github.com/adam-paterson/mcp-crew-ai.gitOpción 3: Clonar e instalar
git clone https://github.com/adam-paterson/mcp-crew-ai.git
cd mcp-crew-ai
pip install -e .Requisitos
Python 3.11+
Kit de desarrollo de software de MCP
CrewAI
PyYAML
Configuración
agents.yml: Define tus agentes con roles, objetivos e historias de fondo.
task.yml: Define tareas con descripciones, resultados esperados y asígnalas a agentes.
Ejemplo
zookeeper:
role: Zookeeper
goal: Manage zoo operations
backstory: >
You are a seasoned zookeeper with a passion for wildlife conservation...Ejemplo de
write_stories:
description: >
Write an engaging zoo update capturing the day's highlights.
expected_output: 5 engaging stories
agent: zookeeper
output_file: zoo_report.mdUso
Una vez instalado, puedes ejecutar el servidor MCP CrewAI utilizando cualquiera de estos métodos:
Comando estándar de Python
mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.ymlUso de la ejecución UV (uvx)
Para una experiencia más optimizada, puede utilizar el comando de ejecución UV:
uvx mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.ymlO ejecute simplemente el servidor directamente:
uvx mcp-crew-ai-serverEsto iniciará el servidor utilizando la configuración predeterminada de las variables de entorno.
Opciones de línea de comandos
--agents: Ruta al archivo YAML de los agentes (obligatorio)--tasks: Ruta al archivo YAML de tareas (obligatorio)--topic: El tema principal en el que trabajará la tripulación (predeterminado: "Inteligencia Artificial")--process: Tipo de proceso a utilizar (opciones: "secuencial" o "jerárquico", predeterminado: "secuencial")--verbose: Habilitar salida detallada--variables: cadena JSON o ruta a un archivo JSON con variables adicionales para reemplazar en archivos YAML--version: Muestra información de la versión y sale
Uso avanzado
También puedes proporcionar variables adicionales para usar en tus plantillas YAML:
mcp-crew-ai --agents examples/agents.yml --tasks examples/tasks.yml --topic "Machine Learning" --variables '{"year": 2025, "focus": "deep learning"}'Estas variables reemplazarán los marcadores de posición en sus archivos YAML. Por ejemplo, {topic} se reemplazará por "Machine Learning" y {year} por "2025".
Contribuyendo
¡Agradecemos sus contribuciones! Abra problemas o envíe solicitudes de incorporación de cambios con mejoras, correcciones de errores o nuevas funciones.
Licencia
Este proyecto está licenciado bajo la licencia MIT. Consulte el archivo de licencia para más detalles.
¡Feliz orquestación del flujo de trabajo!