Skip to main content
Glama

MCP Crew AI Server

MCP 船员 AI 服务器

MCP Crew AI 服务器是一款基于 Python 的轻量级服务器,旨在运行、管理和创建 CrewAI 工作流。该项目利用模型上下文协议 (MCP)与大型语言模型 (LLM) 以及 Claude Desktop 或 Cursor IDE 等工具进行通信,让您能够轻松编排多智能体工作流。

特征

  • **自动配置:**从两个 YAML 文件( agents.ymltasks.yml )自动加载代理和任务配置,因此您无需为基本设置编写自定义代码。
  • **命令行灵活性:**通过命令行参数( --agents--tasks )将自定义路径传递给配置文件。
  • **无缝工作流程执行:**通过 MCP run_workflow工具轻松运行预配置的工作流程。
  • **本地开发:**以 STDIO 模式本地运行服务器,非常适合开发和测试。

安装

有几种方法可以安装 MCP Crew AI 服务器:

选项 1:从 PyPI 安装(推荐)

pip install mcp-crew-ai

选项 2:从 GitHub 安装

pip install git+https://github.com/adam-paterson/mcp-crew-ai.git

选项 3:克隆并安装

git clone https://github.com/adam-paterson/mcp-crew-ai.git cd mcp-crew-ai pip install -e .

要求

  • Python 3.11+
  • MCP SDK
  • CrewAI
  • PyYAML

配置

  • **agent.yml:**通过角色、目标和背景故事定义您的代理。
  • **tasks.yml:**定义带有描述、预期输出的任务,并将其分配给代理。

示例agents.yml

zookeeper: role: Zookeeper goal: Manage zoo operations backstory: > You are a seasoned zookeeper with a passion for wildlife conservation...

示例tasks.yml

write_stories: description: > Write an engaging zoo update capturing the day's highlights. expected_output: 5 engaging stories agent: zookeeper output_file: zoo_report.md

用法

安装后,您可以使用以下任一方法运行 MCP CrewAI 服务器:

标准 Python 命令

mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

使用 UV 执行(uvx)

为了获得更简化的体验,您可以使用 UV 执行命令:

uvx mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

或者直接运行服务器:

uvx mcp-crew-ai-server

这将使用环境变量中的默认配置启动服务器。

命令行选项

  • --agents :代理 YAML 文件的路径(必需)
  • --tasks :任务 YAML 文件的路径(必需)
  • --topic :团队工作的主要主题(默认值:“人工智能”)
  • --process :要使用的进程类型(选项:“顺序”或“分层”,默认值:“顺序”)
  • --verbose :启用详细输出
  • --variables :JSON 字符串或 JSON 文件的路径,其中包含要在 YAML 文件中替换的附加变量
  • --version :显示版本信息并退出

高级用法

您还可以提供要在 YAML 模板中使用的其他变量:

mcp-crew-ai --agents examples/agents.yml --tasks examples/tasks.yml --topic "Machine Learning" --variables '{"year": 2025, "focus": "deep learning"}'

这些变量将替换 YAML 文件中的占位符。例如, {topic}将被替换为“机器学习”, {year}将被替换为“2025”。

贡献

欢迎贡献代码!请提交问题或拉取请求,以改进代码、修复错误或添加新功能。

执照

本项目遵循 MIT 许可证。详情请参阅许可证文件。

工作流程编排愉快!

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

一种基于 Python 的轻量级服务器,旨在使用模型上下文协议运行、管理和创建 CrewAI 工作流,以便与 LLM 和 Claude Desktop 或 Cursor IDE 等工具进行通信。

  1. 特征
    1. 安装
      1. 选项 1:从 PyPI 安装(推荐)
      2. 选项 2:从 GitHub 安装
      3. 选项 3:克隆并安装
      4. 要求
    2. 配置
      1. 用法
        1. 标准 Python 命令
        2. 使用 UV 执行(uvx)
        3. 命令行选项
        4. 高级用法
      2. 贡献
        1. 执照

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            Enables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.
            Last updated -
            0
            3
            JavaScript
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables AI assistants like Claude to perform Python development tasks through file operations, code analysis, project management, and safe code execution.
            Last updated -
            5
            Python
            • Linux
            • Apple
          • A
            security
            F
            license
            A
            quality
            A Model Context Protocol server that enables users to kickoff and monitor deployed CrewAI workflows through Claude Desktop.
            Last updated -
            2
            42
            Python
          • -
            security
            -
            license
            -
            quality
            Exposes CrewAI tools through a REST API that allows Claude and other LLMs to access web search functionality, data analysis capabilities, and custom CrewAI tools.
            Last updated -
            1
            Python

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/adam-paterson/mcp-crew-ai'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server