Skip to main content
Glama

MCP Crew AI Server

Servidor de IA de la tripulación MCP

MCP Crew AI Server es un servidor ligero basado en Python, diseñado para ejecutar, gestionar y crear flujos de trabajo de CrewAI. Este proyecto aprovecha el Protocolo de Contexto de Modelo (MCP) para comunicarse con Modelos de Lenguaje Grandes (LLM) y herramientas como Claude Desktop o Cursor IDE, lo que permite orquestar flujos de trabajo multiagente con facilidad.

Características

  • Configuración automática: carga automáticamente las configuraciones de agente y tarea desde dos archivos YAML ( agents.yml y tasks.yml ), por lo que no necesita escribir código personalizado para configuraciones básicas.
  • Flexibilidad de la línea de comandos: pase rutas personalizadas a sus archivos de configuración a través de argumentos de la línea de comandos ( --agents y --tasks ).
  • Ejecución de flujo de trabajo sin inconvenientes: ejecute fácilmente flujos de trabajo preconfigurados a través de la herramienta run_workflow de MCP.
  • Desarrollo local: ejecuta el servidor localmente en modo STDIO, lo que lo hace ideal para desarrollo y pruebas.

Instalación

Hay varias formas de instalar el servidor MCP Crew AI:

Opción 1: Instalar desde PyPI (recomendado)

pip install mcp-crew-ai

Opción 2: Instalar desde GitHub

pip install git+https://github.com/adam-paterson/mcp-crew-ai.git

Opción 3: Clonar e instalar

git clone https://github.com/adam-paterson/mcp-crew-ai.git cd mcp-crew-ai pip install -e .

Requisitos

  • Python 3.11+
  • Kit de desarrollo de software de MCP
  • CrewAI
  • PyYAML

Configuración

  • agents.yml: Define tus agentes con roles, objetivos e historias de fondo.
  • task.yml: Define tareas con descripciones, resultados esperados y asígnalas a agentes.

Ejemplo agents.yml :

zookeeper: role: Zookeeper goal: Manage zoo operations backstory: > You are a seasoned zookeeper with a passion for wildlife conservation...

Ejemplo de tasks.yml :

write_stories: description: > Write an engaging zoo update capturing the day's highlights. expected_output: 5 engaging stories agent: zookeeper output_file: zoo_report.md

Uso

Una vez instalado, puedes ejecutar el servidor MCP CrewAI utilizando cualquiera de estos métodos:

Comando estándar de Python

mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

Uso de la ejecución UV (uvx)

Para una experiencia más optimizada, puede utilizar el comando de ejecución UV:

uvx mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

O ejecute simplemente el servidor directamente:

uvx mcp-crew-ai-server

Esto iniciará el servidor utilizando la configuración predeterminada de las variables de entorno.

Opciones de línea de comandos

  • --agents : Ruta al archivo YAML de los agentes (obligatorio)
  • --tasks : Ruta al archivo YAML de tareas (obligatorio)
  • --topic : El tema principal en el que trabajará la tripulación (predeterminado: "Inteligencia Artificial")
  • --process : Tipo de proceso a utilizar (opciones: "secuencial" o "jerárquico", predeterminado: "secuencial")
  • --verbose : Habilitar salida detallada
  • --variables : cadena JSON o ruta a un archivo JSON con variables adicionales para reemplazar en archivos YAML
  • --version : Muestra información de la versión y sale

Uso avanzado

También puedes proporcionar variables adicionales para usar en tus plantillas YAML:

mcp-crew-ai --agents examples/agents.yml --tasks examples/tasks.yml --topic "Machine Learning" --variables '{"year": 2025, "focus": "deep learning"}'

Estas variables reemplazarán los marcadores de posición en sus archivos YAML. Por ejemplo, {topic} se reemplazará por "Machine Learning" y {year} por "2025".

Contribuyendo

¡Agradecemos sus contribuciones! Abra problemas o envíe solicitudes de incorporación de cambios con mejoras, correcciones de errores o nuevas funciones.

Licencia

Este proyecto está licenciado bajo la licencia MIT. Consulte el archivo de licencia para más detalles.

¡Feliz orquestación del flujo de trabajo!

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un servidor liviano basado en Python diseñado para ejecutar, administrar y crear flujos de trabajo de CrewAI utilizando el Protocolo de contexto de modelo para comunicarse con LLM y herramientas como Claude Desktop o Cursor IDE.

  1. Características
    1. Instalación
      1. Opción 1: Instalar desde PyPI (recomendado)
      2. Opción 2: Instalar desde GitHub
      3. Opción 3: Clonar e instalar
      4. Requisitos
    2. Configuración
      1. Uso
        1. Comando estándar de Python
        2. Uso de la ejecución UV (uvx)
        3. Opciones de línea de comandos
        4. Uso avanzado
      2. Contribuyendo
        1. Licencia

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            This is an MCP server that facilitates building tools for interacting with various APIs and workflows, supporting Python-based development with potential for customizable prompts and user configurations.
            Last updated -
            Python
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables users to kickoff and monitor deployed CrewAI workflows through Claude Desktop.
            Last updated -
            1
            Python
          • -
            security
            A
            license
            -
            quality
            A Python package that implements a Model Context Protocol server for integrating with Flowise API, allowing users to list chatflows, create predictions, and dynamically register tools for Flowise chatflows or assistants.
            Last updated -
            Python
            MIT License
            • Linux
            • Apple
          • A
            security
            F
            license
            A
            quality
            A Python server implementing the Model Context Protocol to provide customizable prompt templates, resources, and tools that enhance LLM interactions in the continue.dev environment.
            Last updated -
            2
            1
            Python

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/adam-paterson/mcp-crew-ai'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server