Skip to main content
Glama

MCP Crew AI Server

MCP クルー AI サーバー

MCP Crew AI Serverは、CrewAIワークフローの実行、管理、作成を目的として設計された軽量なPythonベースのサーバーです。このプロジェクトは、モデルコンテキストプロトコル(MCP)を活用して大規模言語モデル(LLM)やClaude Desktop、Cursor IDEなどのツールと通信し、マルチエージェントワークフローを容易にオーケストレーションできます。

特徴

  • 自動構成: 2 つの YAML ファイル ( agents.ymltasks.yml ) からエージェントとタスクの構成を自動的に読み込むため、基本設定用のカスタム コードを記述する必要はありません。
  • **コマンドラインの柔軟性:**コマンドライン引数 ( --agentsおよび--tasks ) を介して構成ファイルにカスタム パスを渡します。
  • シームレスなワークフロー実行: MCP run_workflowツールを使用して、事前構成されたワークフローを簡単に実行します。
  • **ローカル開発:**サーバーを STDIO モードでローカルに実行すると、開発とテストに最適です。

インストール

MCP Crew AI サーバーをインストールするには、いくつかの方法があります。

オプション 1: PyPI からインストールする (推奨)

pip install mcp-crew-ai

オプション2: GitHubからインストールする

pip install git+https://github.com/adam-paterson/mcp-crew-ai.git

オプション3: クローンとインストール

git clone https://github.com/adam-paterson/mcp-crew-ai.git cd mcp-crew-ai pip install -e .

要件

  • Python 3.11以上
  • MCP SDK
  • クルーAI
  • パイヤム

構成

  • **agents.yml:**役割、目標、背景を持つエージェントを定義します。
  • **tasks.yml:**説明と期待される出力を含むタスクを定義し、エージェントに割り当てます。

例: agents.yml :

zookeeper: role: Zookeeper goal: Manage zoo operations backstory: > You are a seasoned zookeeper with a passion for wildlife conservation...

例: tasks.yml :

write_stories: description: > Write an engaging zoo update capturing the day's highlights. expected_output: 5 engaging stories agent: zookeeper output_file: zoo_report.md

使用法

インストールが完了したら、次のいずれかの方法で MCP CrewAI サーバーを実行できます。

標準Pythonコマンド

mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

UV実行(uvx)の使用

より効率的なエクスペリエンスを実現するには、UV 実行コマンドを使用できます。

uvx mcp-crew-ai --agents path/to/agents.yml --tasks path/to/tasks.yml

または、サーバーだけを直接実行します。

uvx mcp-crew-ai-server

これにより、環境変数からのデフォルト構成を使用してサーバーが起動します。

コマンドラインオプション

  • --agents : エージェントのYAMLファイルへのパス(必須)
  • --tasks : タスクYAMLファイルへのパス(必須)
  • --topic : クルーが取り組む主なトピック (デフォルト:「人工知能」)
  • --process : 使用するプロセスタイプ (選択肢: "sequential" または "hierarchical"、デフォルト: "sequential")
  • --verbose : 詳細出力を有効にする
  • --variables : YAML ファイルで置き換える追加の変数を含む JSON 文字列または JSON ファイルへのパス
  • --version : バージョン情報を表示して終了する

高度な使用法

YAML テンプレートで使用する追加の変数を指定することもできます。

mcp-crew-ai --agents examples/agents.yml --tasks examples/tasks.yml --topic "Machine Learning" --variables '{"year": 2025, "focus": "deep learning"}'

これらの変数は、YAMLファイル内のプレースホルダーを置き換えます。例えば、 {topic} 「Machine Learning」に、 {year}は「2025」に置き換えられます。

貢献

貢献を歓迎します!改善、バグ修正、新機能など、問題を報告したり、プルリクエストを送信したりしてください。

ライセンス

このプロジェクトはMITライセンスの下で提供されています。詳細はLICENSEファイルをご覧ください。

ワークフローオーケストレーションを楽しんでください!

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

モデル コンテキスト プロトコルを使用して、LLM や Claude Desktop、Cursor IDE などのツールと通信し、CrewAI ワークフローを実行、管理、作成するように設計された軽量の Python ベースのサーバーです。

  1. 特徴
    1. インストール
      1. オプション 1: PyPI からインストールする (推奨)
      2. オプション2: GitHubからインストールする
      3. オプション3: クローンとインストール
      4. 要件
    2. 構成
      1. 使用法
        1. 標準Pythonコマンド
        2. UV実行(uvx)の使用
        3. コマンドラインオプション
        4. 高度な使用法
      2. 貢献
        1. ライセンス

          Related MCP Servers

          • -
            security
            F
            license
            -
            quality
            This is an MCP server that facilitates building tools for interacting with various APIs and workflows, supporting Python-based development with potential for customizable prompts and user configurations.
            Last updated -
            Python
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables users to kickoff and monitor deployed CrewAI workflows through Claude Desktop.
            Last updated -
            1
            Python
          • -
            security
            A
            license
            -
            quality
            A Python package that implements a Model Context Protocol server for integrating with Flowise API, allowing users to list chatflows, create predictions, and dynamically register tools for Flowise chatflows or assistants.
            Last updated -
            Python
            MIT License
            • Linux
            • Apple
          • A
            security
            F
            license
            A
            quality
            A Python server implementing the Model Context Protocol to provide customizable prompt templates, resources, and tools that enhance LLM interactions in the continue.dev environment.
            Last updated -
            2
            Python

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/adam-paterson/mcp-crew-ai'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server