MCP Crew AI Server

Integrations

  • Provides tools for running, managing and creating CrewAI workflows, enabling multi-agent operations through configuration in YAML files.

  • Enables installation directly from GitHub repository, with the server code hosted on GitHub.

  • Allows installation of the MCP Crew AI server package directly from the Python Package Index.

Servidor de IA de la tripulación MCP

MCP Crew AI Server es un servidor ligero basado en Python, diseñado para ejecutar, gestionar y crear flujos de trabajo de CrewAI. Este proyecto aprovecha el Protocolo de Contexto de Modelo (MCP) para comunicarse con Modelos de Lenguaje Grandes (LLM) y herramientas como Claude Desktop o Cursor IDE, lo que permite orquestar flujos de trabajo multiagente con facilidad.

Características

  • Configuración automática: carga automáticamente las configuraciones de agente y tarea desde dos archivos YAML ( agents.yml y tasks.yml ), por lo que no necesita escribir código personalizado para configuraciones básicas.
  • Flexibilidad de la línea de comandos: pase rutas personalizadas a sus archivos de configuración a través de argumentos de la línea de comandos ( --agents y --tasks ).
  • Ejecución de flujo de trabajo sin inconvenientes: ejecute fácilmente flujos de trabajo preconfigurados a través de la herramienta run_workflow de MCP.
  • Desarrollo local: ejecuta el servidor localmente en modo STDIO, lo que lo hace ideal para desarrollo y pruebas.

Instalación

Hay varias formas de instalar el servidor MCP Crew AI:

Opción 1: Instalar desde PyPI (recomendado)

pip install mcp-crew-ai

Opción 2: Instalar desde GitHub

pip install git+https://github.com/adam-paterson/mcp-crew-ai.git

Opción 3: Clonar e instalar

git clone https://github.com/adam-paterson/mcp-crew-ai.git cd mcp-crew-ai pip install -e .

Requisitos

  • Python 3.11+
  • Kit de desarrollo de software de MCP
  • CrewAI
  • PyYAML

Configuración

  • agents.yml: Define tus agentes con roles, objetivos e historias de fondo.
  • task.yml: Define tareas con descripciones, resultados esperados y asígnalas a agentes.

Ejemplo agents.yml :

zookeeper: role: Zookeeper goal: Manage zoo operations backstory: > You are a seasoned zookeeper with a passion for wildlife conservation...

Ejemplo de tasks.yml :

write_stories: description: > Write an engaging zoo update capturing the day's highlights. expected_output: 5 engaging stories agent: zookeeper output_file: zoo_report.md

Uso

Una vez instalado, puedes ejecutar el servidor MCP CrewAI utilizando cualquiera de estos métodos:

Comando estándar de Python

mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

Uso de la ejecución UV (uvx)

Para una experiencia más optimizada, puede utilizar el comando de ejecución UV:

uvx mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

O ejecute simplemente el servidor directamente:

uvx mcp-crew-ai-server

Esto iniciará el servidor utilizando la configuración predeterminada de las variables de entorno.

Opciones de línea de comandos

  • --agents : Ruta al archivo YAML de los agentes (obligatorio)
  • --tasks : Ruta al archivo YAML de tareas (obligatorio)
  • --topic : El tema principal en el que trabajará la tripulación (predeterminado: "Inteligencia Artificial")
  • --process : Tipo de proceso a utilizar (opciones: "secuencial" o "jerárquico", predeterminado: "secuencial")
  • --verbose : Habilitar salida detallada
  • --variables : cadena JSON o ruta a un archivo JSON con variables adicionales para reemplazar en archivos YAML
  • --version : Muestra información de la versión y sale

Uso avanzado

También puedes proporcionar variables adicionales para usar en tus plantillas YAML:

mcp-crew-ai --agents examples/agents.yml --tasks examples/tasks.yml --topic "Machine Learning" --variables '{"year": 2025, "focus": "deep learning"}'

Estas variables reemplazarán los marcadores de posición en sus archivos YAML. Por ejemplo, {topic} se reemplazará por "Machine Learning" y {year} por "2025".

Contribuyendo

¡Agradecemos sus contribuciones! Abra problemas o envíe solicitudes de incorporación de cambios con mejoras, correcciones de errores o nuevas funciones.

Licencia

Este proyecto está licenciado bajo la licencia MIT. Consulte el archivo de licencia para más detalles.

¡Feliz orquestación del flujo de trabajo!

-
security - not tested
F
license - not found
-
quality - not tested

Un servidor liviano basado en Python diseñado para ejecutar, administrar y crear flujos de trabajo de CrewAI utilizando el Protocolo de contexto de modelo para comunicarse con LLM y herramientas como Claude Desktop o Cursor IDE.

  1. Features
    1. Installation
      1. Option 1: Install from PyPI (Recommended)
      2. Option 2: Install from GitHub
      3. Option 3: Clone and Install
      4. Requirements
    2. Configuration
      1. Usage
        1. Standard Python Command
        2. Using UV Execution (uvx)
        3. Command Line Options
        4. Advanced Usage
      2. Contributing
        1. Licence
          ID: feqw3c8tuz