Skip to main content
Glama

mcp-jenkins

MCP ジェンキンス

PyPIバージョンPyPI - ダウンロード ライセンス

モデルコンテキストプロトコル(MCP)は、AnthropicのMCP仕様に準拠したJenkinsとAI言語モデルを連携させるオープンソース実装です。このプロジェクトは、データのプライバシーとセキュリティを維持しながら、JenkinsツールとAIを安全かつコンテキストに応じて連携させることを可能にします。

カーソルデモ

カーソルデモ

セットアップガイド

インストール

次のいずれかのインストール方法を選択します。

# Using uv (recommended) pip install uv uvx mcp-jenkins # Using pip pip install mcp-jenkins # Using Smithery npx -y @smithery/cli@latest install @lanbaoshen/mcp-jenkins --client claude

設定と使用方法

カーソル
  1. カーソル設定を開く
  2. MCPへ移動
  3. + 新しいグローバルMCPサーバーを追加をクリックします

これにより、MCP サーバーの構成を使用して ~/.cursor/mcp.json ファイルが作成されるか編集されます。

{ "mcpServers": { "mcp-jenkins": { "command": "uvx", "args": [ "mcp-jenkins", "--jenkins-url=xxx", "--jenkins-username=xxx", "--jenkins-password=xxx" ] } } }
行引数
# Stdio Mode uvx mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx # SSE Mode uvx mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx --transport sse --port 9887
オートジェン

autogen をインストールします。

pip install "autogen-ext[azure,ollama,openai,mcp]" autogen-chat

Python スクリプトを実行します:

import asyncio from autogen_ext.tools.mcp import StdioMcpToolAdapter, StdioServerParams from autogen_agentchat.agents import AssistantAgent from autogen_agentchat.ui import Console from autogen_core import CancellationToken async def main() -> None: # Create server params for the remote MCP service server_params = StdioServerParams( command='uvx', args=[ 'mcp-jenkins', '--jenkins-username', 'xxx', '--jenkins-password', 'xxx', '--jenkins-url', 'xxx' ], ) # Get the translation tool from the server adapter = await StdioMcpToolAdapter.from_server_params(server_params, 'get_all_jobs') # Create an agent that can use the translation tool agent = AssistantAgent( name='jenkins_assistant', model_client=[Replace_with_your_model_client], tools=[adapter], ) # Let the agent translate some text await Console( agent.run_stream(task='Get all jobs', cancellation_token=CancellationToken()) ) if __name__ == "__main__": asyncio.run(main())

利用可能なツール

道具説明
すべての求人情報を取得するすべての求人情報
get_job_configジョブ設定を取得する
検索求人特定の分野で求人を検索
get_running_buildsビルドを実行する
get_build_infoビルド情報を取得する
ジョブ情報を取得する求人情報を取得する
ビルドジョブパラメータを使ってジョブを構築する
get_build_logsビルドログを取得する
すべてのノードを取得するノードを取得する
get_node_configノードの設定を取得する
すべてのキューアイテムを取得するすべてのキューアイテムを取得する
get_queue_itemキューアイテム情報を取得する
キューアイテムのキャンセルキューアイテムをキャンセル

開発とデバッグ

# Using MCP Inspector # For installed package npx @modelcontextprotocol/inspector uvx mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx # For local development version npx @modelcontextprotocol/inspector uv --directory /path/to/your/mcp-jenkins run mcp-jenkins --jenkins-url xxx --jenkins-username xxx --jenkins-password xxx

コミット前フック

# Install Dependency uv sync --all-extras --dev pre-commit install # Manually execute pre-commit run --all-files

ユタ州

# Install Dependency uv sync --all-extras --dev # Execute UT uv run pytest --cov=mcp_jenkins

ライセンス

MITライセンス - LICENSEファイルをご覧ください。これはJenkinsの公式製品ではありません。

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

モデルコンテキストプロトコル(MCP)Jenkins統合は、AnthropicのMCP仕様に準拠したAI言語モデルとJenkinsを連携させるオープンソース実装です。このプロジェクトは、データのプライバシーとセキュリティを維持しながら、JenkinsツールとAIを安全かつコンテキストに応じて連携させることを可能にします。

  1. カーソルデモ
    1. セットアップガイド
      1. インストール
      2. 設定と使用方法
    2. 利用可能なツール
      1. 開発とデバッグ
        1. コミット前フック
        2. ユタ州
      2. ライセンス

        Related MCP Servers

        • -
          security
          F
          license
          -
          quality
          Facilitates interaction and context sharing between AI models using the standardized Model Context Protocol (MCP) with features like interoperability, scalability, security, and flexibility across diverse AI systems.
          Last updated -
          1
          Python
        • A
          security
          A
          license
          A
          quality
          Model Context Protocol (MCP) is a new, standardized protocol for managing context between large language models (LLMs) and external systems. In this repository, we provide an installer as well as an MCP Server for Upstash Developer API's.
          Last updated -
          16
          58
          27
          TypeScript
          MIT License
          • Linux
          • Apple
        • -
          security
          -
          license
          -
          quality
          An open-source implementation of the Model Context Protocol (MCP) that bridges AI agents with enterprise systems, enabling secure access to real-world data and capabilities.
          Last updated -
          1
          Python
          Apache 2.0
        • A
          security
          F
          license
          A
          quality
          An all-in-one Model Context Protocol (MCP) server that connects your coding AI to numerous databases, data warehouses, data pipelines, and cloud services, streamlining development workflow through seamless integrations.
          Last updated -
          Python
          • Apple
          • Linux

        View all related MCP servers

        MCP directory API

        We provide all the information about MCP servers via our MCP API.

        curl -X GET 'https://glama.ai/api/mcp/v1/servers/lanbaoshen/mcp-jenkins'

        If you have feedback or need assistance with the MCP directory API, please join our Discord server