Skip to main content
Glama

mcp-jenkins

MCP ジェンキンス

PyPIバージョンPyPI - ダウンロード PyPI ダウンロード 鍛冶屋のバッジ テスト ライセンス

モデルコンテキストプロトコル(MCP)は、AnthropicのMCP仕様に準拠したJenkinsとAI言語モデルを連携させるオープンソース実装です。このプロジェクトは、データのプライバシーとセキュリティを維持しながら、JenkinsツールとAIを安全かつコンテキストに応じて連携させることを可能にします。

カーソルデモ

カーソルデモ

セットアップガイド

インストール

次のいずれかのインストール方法を選択します。

# Using uv (recommended) pip install uv uvx mcp-jenkins # Using pip pip install mcp-jenkins # Using Smithery npx -y @smithery/cli@latest install @lanbaoshen/mcp-jenkins --client claude

設定と使用方法

カーソル

  1. カーソル設定を開く

  2. MCPへ移動

  3. + 新しいグローバルMCPサーバーを追加をクリックします

これにより、MCP サーバーの構成を使用して ~/.cursor/mcp.json ファイルが作成されるか編集されます。

{ "mcpServers": { "mcp-jenkins": { "command": "uvx", "args": [ "mcp-jenkins", "--jenkins-url=xxx", "--jenkins-username=xxx", "--jenkins-password=xxx" ] } } }

行引数

# Stdio Mode uvx mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx # SSE Mode uvx mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx --transport sse --port 9887

オートジェン

autogen をインストールします。

pip install "autogen-ext[azure,ollama,openai,mcp]" autogen-chat

Python スクリプトを実行します:

import asyncio from autogen_ext.tools.mcp import StdioMcpToolAdapter, StdioServerParams from autogen_agentchat.agents import AssistantAgent from autogen_agentchat.ui import Console from autogen_core import CancellationToken async def main() -> None: # Create server params for the remote MCP service server_params = StdioServerParams( command='uvx', args=[ 'mcp-jenkins', '--jenkins-username', 'xxx', '--jenkins-password', 'xxx', '--jenkins-url', 'xxx' ], ) # Get the translation tool from the server adapter = await StdioMcpToolAdapter.from_server_params(server_params, 'get_all_jobs') # Create an agent that can use the translation tool agent = AssistantAgent( name='jenkins_assistant', model_client=[Replace_with_your_model_client], tools=[adapter], ) # Let the agent translate some text await Console( agent.run_stream(task='Get all jobs', cancellation_token=CancellationToken()) ) if __name__ == "__main__": asyncio.run(main())

利用可能なツール

道具

説明

すべての求人情報を取得する

すべての求人情報

get_job_config

ジョブ設定を取得する

検索求人

特定の分野で求人を検索

get_running_builds

ビルドを実行する

get_build_info

ビルド情報を取得する

ジョブ情報を取得する

求人情報を取得する

ビルドジョブ

パラメータを使ってジョブを構築する

get_build_logs

ビルドログを取得する

すべてのノードを取得する

ノードを取得する

get_node_config

ノードの設定を取得する

すべてのキューアイテムを取得する

すべてのキューアイテムを取得する

get_queue_item

キューアイテム情報を取得する

キューアイテムのキャンセル

キューアイテムをキャンセル

開発とデバッグ

# Using MCP Inspector # For installed package npx @modelcontextprotocol/inspector uvx mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx # For local development version npx @modelcontextprotocol/inspector uv --directory /path/to/your/mcp-jenkins run mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx

コミット前フック

# Install Dependency uv sync --all-extras --dev pre-commit install # Manually execute pre-commit run --all-files

ユタ州

# Install Dependency uv sync --all-extras --dev # Execute UT uv run pytest --cov=mcp_jenkins

ライセンス

MITライセンス - LICENSEファイルをご覧ください。これはJenkinsの公式製品ではありません。

-
security - not tested
-
license - not tested
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

モデルコンテキストプロトコル(MCP)Jenkins統合は、AnthropicのMCP仕様に準拠したAI言語モデルとJenkinsを連携させるオープンソース実装です。このプロジェクトは、データのプライバシーとセキュリティを維持しながら、JenkinsツールとAIを安全かつコンテキストに応じて連携させることを可能にします。

  1. カーソルデモ
    1. セットアップガイド
      1. インストール
      2. 設定と使用方法
    2. 利用可能なツール
      1. 開発とデバッグ
        1. コミット前フック
        2. ユタ州
      2. ライセンス

        Related MCP Servers

        • -
          security
          -
          license
          -
          quality
          Facilitates interaction and context sharing between AI models using the standardized Model Context Protocol (MCP) with features like interoperability, scalability, security, and flexibility across diverse AI systems.
          Last updated -
          1
        • A
          security
          -
          license
          A
          quality
          Model Context Protocol (MCP) is a new, standardized protocol for managing context between large language models (LLMs) and external systems. In this repository, we provide an installer as well as an MCP Server for Upstash Developer API's.
          Last updated -
          335
          48
          MIT License
          • Linux
          • Apple
        • -
          security
          -
          license
          -
          quality
          An open-source implementation of the Model Context Protocol (MCP) that bridges AI agents with enterprise systems, enabling secure access to real-world data and capabilities.
          Last updated -
          5
          Apache 2.0
        • A
          security
          -
          license
          A
          quality
          An all-in-one Model Context Protocol (MCP) server that connects your coding AI to numerous databases, data warehouses, data pipelines, and cloud services, streamlining development workflow through seamless integrations.
          Last updated -
          3
          • Apple
          • Linux

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/lanbaoshen/mcp-jenkins'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server