Skip to main content
Glama

Prefect MCP Server

by allen-munsch

Prefect MCP サーバー

Prefect用のモデルコンテキストプロトコル (MCP) サーバー実装。AI アシスタントが自然言語を通じて Prefect と対話できるようになります。

特徴

この MCP サーバーは、次の Prefect API へのアクセスを提供します。

  • フロー管理: フローの一覧表示、取得、削除
  • フロー実行管理: フロー実行の作成、監視、制御
  • デプロイメント管理: デプロイメントとそのスケジュールを管理する
  • タスク実行管理: タスク実行の監視と制御
  • 作業キュー管理: 作業キューの作成と管理
  • ブロック管理: ブロックの種類とドキュメントにアクセスします
  • 変数管理: 変数の作成と管理
  • ワークスペース管理: ワークスペースに関する情報を取得する

構成

次の環境変数を設定します。

export PREFECT_API_URL="http://localhost:4200/api" # URL of your Prefect API export PREFECT_API_KEY="your_api_key" # Your Prefect API key (if using Prefect Cloud)

使用法

MCP サーバーを実行し、次の操作を実行します。

docker compose up

入力例

接続すると、AIアシスタントが自然言語を使ってPrefectとの対話をサポートします。例:

  • 「すべてのフローを表示」
  • 「昨日の失敗したフロー実行をすべて一覧表示する」
  • 「データ処理」の展開を開始する
  • 「日次レポートの展開スケジュールを一時停止する」
  • 「前回の ETL フロー実行のステータスはどうですか?」

発達

いくつかのエンドポイントはまだ実装されていない

新しい機能の追加

既存の API に新しい関数を追加するには:

  1. src/mcp_prefect内の適切なモジュールに関数を追加します。
  2. モジュールのget_all_functions()リストに関数を追加します。

新しい API タイプを追加するには:

  1. enums.pyAPITypeに新しい型を追加します。
  2. src/prefect/に新しいモジュールを作成する
  3. main.pyを更新して新しいAPIタイプを追加します

使用例:

{ "mcpServers": { "mcp-prefect": { "command": "mcp-prefect", "args": [ "--transport", "sse" ], "env": { "PYTHONPATH": "/path/to/your/project/directory" }, "cwd": "/path/to/your/project/directory" } } }
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

AI アシスタントが自然言語を通じて Prefect のワークフロー自動化プラットフォームと対話できるようにするモデル コンテキスト プロトコル サーバー。これにより、ユーザーは会話型コマンドを使用してフロー、デプロイメント、タスク、その他の Prefect リソースを管理できます。

  1. 特徴
    1. 構成
      1. 使用法
        1. 入力例
          1. 発達
            1. 新しい機能の追加

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            An enhanced Model Context Protocol server that enables AI assistants to interact with ClickUp workspaces, supporting task relationships, comments, checklists, and workspace management through natural language.
            Last updated -
            40
            605
            TypeScript
            MIT License
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server that enables AI assistants to interact with Coolify instances through natural language, allowing management of servers, applications, databases, and deployments.
            Last updated -
            85
            2
            TypeScript
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, supporting actions like listing, creating, updating, executing and monitoring workflows.
            Last updated -
            388
            464
            TypeScript
            MIT License
            • Apple
            • Linux
          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, providing access to n8n's complete API functionality including workflow management, user administration, and credential handling.
            Last updated -
            95
            JavaScript
            MIT License
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/allen-munsch/mcp-prefect'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server