Skip to main content
Glama

OPS MCP Server

by Heht571

ops-mcp-server

ops-mcp-server : LLM と MCP アーキテクチャを融合し、エンタープライズ グレードのセキュリティとスケーラビリティを備えたインテリジェントな監視、異常検出、自然な人間とインフラストラクチャの相互作用を可能にする AI 駆動型 IT 運用プラットフォームです。


📖 目次


🚀 プロジェクト概要

ops-mcp-server AI時代に向けたIT運用管理ソリューションです。モデルコンテキストプロトコル(MCP)と大規模言語モデル(LLM)をシームレスに統合することで、インテリジェントなIT運用を実現します。LLMとMCPの分散アーキテクチャのパワーを活用することで、従来のIT運用をAI主導のエクスペリエンスへと変革し、自動サーバー監視、インテリジェントな異常検知、コンテキストアウェアなトラブルシューティングを実現します。このシステムは、人間のオペレーターと複雑なITインフラストラクチャをつなぐ橋渡しとして機能し、日常的なメンテナンスから複雑な問題診断まで、幅広いタスクにおいて自然言語によるインタラクションを提供しながら、エンタープライズグレードのセキュリティとスケーラビリティを維持します。


🌟 主な特徴

🖥️ サーバー監視

  • リアルタイムの CPU、メモリ、ディスク検査。
  • システム負荷とプロセスの監視。
  • サービスおよびネットワーク インターフェイスのチェック。
  • ログ分析と構成のバックアップ。
  • セキュリティ脆弱性スキャン (SSH ログイン、ファイアウォール ステータス)。
  • 詳細な OS 情報の取得。

📦 コンテナ管理(Docker)

  • コンテナ、イメージ、ボリュームの管理。
  • コンテナ リソースの使用状況の監視。
  • ログの取得とヘルスチェック。

🌐 ネットワークデバイス管理

  • マルチベンダーサポート(Cisco、Huawei、H3C)。
  • スイッチ ポート、VLAN、およびルーターのルート チェック。
  • ACL セキュリティ構成分析。
  • 光モジュールおよびデバイスのパフォーマンス監視。

➕ 追加機能

  • 拡張可能なプラグイン アーキテクチャ。
  • 複数のデバイスにわたるバッチ操作。
  • ツールのリストと説明コマンド。

🎬 デモビデオ

📌 プロジェクトデモ

チェリースタジオにて

デモアニメーション

📌 インタラクティブクライアントデモ

ターミナル上

クライアントデモアニメーション


⚙️ インストール

Python 3.10以降がインストールされていることを確認してください。このプロジェクトでは、依存関係と環境の管理にuv使用しています。

1.UVをインストールする

curl -LsSf https://astral.sh/uv/install.sh | sh

2. 仮想環境をセットアップする

uv venv .venv # Activate the environment source .venv/bin/activate # Linux/macOS .\.venv\Scripts\activate # Windows

3. 依存関係をインストールする

uv pip install -r requirements.txt

依存関係はpyproject.tomlを介して管理されます。


🚧 デプロイメント

📡 SSE リモートデプロイメント (UV)

cd server_monitor_sse # Install dependencies pip install -r requirements.txt # Start service cd .. uv run server_monitor_sse --transport sse --port 8000

🐳 SSE リモート デプロイメント (Docker Compose)

Docker と Docker Compose がインストールされていることを確認します。

cd server_monitor_sse docker compose up -d # Check status docker compose ps # Logs monitoring docker compose logs -f

🛠️ ローカル MCP サーバー構成 (Stdio)

次の構成を MCP 設定に追加します。

{ "ops-mcp-server": { "command": "uv", "args": [ "--directory", "YOUR_PROJECT_PATH_HERE", "run", "server_monitor.py" ], "env": {}, "disabled": true, "autoApprove": ["list_available_tools"] }, "network_tools": { "command": "uv", "args": [ "--directory", "YOUR_PROJECT_PATH_HERE", "run", "network_tools.py" ], "env": {}, "disabled": false, "autoApprove": [] }, }

: YOUR_PROJECT_PATH_HEREプロジェクトの実際のパスに置き換えます。


💬 インタラクティブなクライアントの使用

対話型クライアント ( client.py ) を使用すると、自然言語を使用して MCP サービスと対話できます。

1. クライアントの依存関係をインストールする

uv pip install openai rich

2. クライアントを構成する

client.py内で次の設定を編集します。

# Initialize OpenAI client self.client = AsyncOpenAI( base_url="https://your-api-endpoint", api_key="YOUR_API_KEY" ) # Set model self.model = "your-preferred-model"

3. クライアントを実行する

uv run client.py [path/to/server.py]

例:

uv run client.py ./server_monitor.py

クライアントコマンド

  • help - ヘルプを表示します。
  • quit - クライアントを終了します。
  • clear - 会話履歴を消去します。
  • model <name> - モデルを切り替えます。

📄 ライセンス

このプロジェクトはMIT ライセンスに基づいてライセンスされています。


📌 注意事項

  • リモート SSH アクセスが適切に構成されていることを確認します。
  • 実際の展開状況に基づいてツールのパラメータを調整します。
  • このプロジェクトは現在活発に開発中であり、フィードバックや貢献を歓迎します。

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    A server that implements a checklist management system with features like task creation, progress tracking, data persistence, and item comments.
    Last updated -
    5
    3
    TypeScript
  • -
    security
    A
    license
    -
    quality
    A lightweight server that provides real-time system information including CPU, memory, disk, and GPU statistics for monitoring and diagnostic purposes.
    Last updated -
    Python
    MIT License
  • A
    security
    A
    license
    A
    quality
    for tracing and monitoring
    Last updated -
    10
    113
    18
    TypeScript
    MIT License
    • Apple
  • -
    security
    F
    license
    -
    quality
    MCP server to perform various OSINT tasks by leveraging common network reconnaissance tools.
    Last updated -
    12
    Python

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Heht571/ops-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server