ops-mcp-server
ops-mcp-server : LLM と MCP アーキテクチャを融合し、エンタープライズ グレードのセキュリティとスケーラビリティを備えたインテリジェントな監視、異常検出、自然な人間とインフラストラクチャの相互作用を可能にする AI 駆動型 IT 運用プラットフォームです。
📖 目次
Related MCP server: MCP System Info Server
🚀 プロジェクト概要
ops-mcp-server AI時代に向けたIT運用管理ソリューションです。モデルコンテキストプロトコル(MCP)と大規模言語モデル(LLM)をシームレスに統合することで、インテリジェントなIT運用を実現します。LLMとMCPの分散アーキテクチャのパワーを活用することで、従来のIT運用をAI主導のエクスペリエンスへと変革し、自動サーバー監視、インテリジェントな異常検知、コンテキストアウェアなトラブルシューティングを実現します。このシステムは、人間のオペレーターと複雑なITインフラストラクチャをつなぐ橋渡しとして機能し、日常的なメンテナンスから複雑な問題診断まで、幅広いタスクにおいて自然言語によるインタラクションを提供しながら、エンタープライズグレードのセキュリティとスケーラビリティを維持します。
🌟 主な特徴
🖥️ サーバー監視
リアルタイムの CPU、メモリ、ディスク検査。
システム負荷とプロセスの監視。
サービスおよびネットワーク インターフェイスのチェック。
ログ分析と構成のバックアップ。
セキュリティ脆弱性スキャン (SSH ログイン、ファイアウォール ステータス)。
詳細な OS 情報の取得。
📦 コンテナ管理(Docker)
コンテナ、イメージ、ボリュームの管理。
コンテナ リソースの使用状況の監視。
ログの取得とヘルスチェック。
🌐 ネットワークデバイス管理
マルチベンダーサポート(Cisco、Huawei、H3C)。
スイッチ ポート、VLAN、およびルーターのルート チェック。
ACL セキュリティ構成分析。
光モジュールおよびデバイスのパフォーマンス監視。
➕ 追加機能
拡張可能なプラグイン アーキテクチャ。
複数のデバイスにわたるバッチ操作。
ツールのリストと説明コマンド。
🎬 デモビデオ
📌 プロジェクトデモ
チェリースタジオにて

📌 インタラクティブクライアントデモ
ターミナル上

⚙️ インストール
Python 3.10以降がインストールされていることを確認してください。このプロジェクトでは、依存関係と環境の管理にuv使用しています。
1.UVをインストールする
curl -LsSf https://astral.sh/uv/install.sh | sh2. 仮想環境をセットアップする
uv venv .venv
# Activate the environment
source .venv/bin/activate # Linux/macOS
.\.venv\Scripts\activate # Windows3. 依存関係をインストールする
uv pip install -r requirements.txt依存関係は
pyproject.tomlを介して管理されます。
🚧 デプロイメント
📡 SSE リモートデプロイメント (UV)
cd server_monitor_sse
# Install dependencies
pip install -r requirements.txt
# Start service
cd ..
uv run server_monitor_sse --transport sse --port 8000🐳 SSE リモート デプロイメント (Docker Compose)
Docker と Docker Compose がインストールされていることを確認します。
cd server_monitor_sse
docker compose up -d
# Check status
docker compose ps
# Logs monitoring
docker compose logs -f🛠️ ローカル MCP サーバー構成 (Stdio)
次の構成を MCP 設定に追加します。
{
"ops-mcp-server": {
"command": "uv",
"args": [
"--directory", "YOUR_PROJECT_PATH_HERE",
"run", "server_monitor.py"
],
"env": {},
"disabled": true,
"autoApprove": ["list_available_tools"]
},
"network_tools": {
"command": "uv",
"args": [
"--directory", "YOUR_PROJECT_PATH_HERE",
"run", "network_tools.py"
],
"env": {},
"disabled": false,
"autoApprove": []
},
}注:
YOUR_PROJECT_PATH_HEREプロジェクトの実際のパスに置き換えます。
💬 インタラクティブなクライアントの使用
対話型クライアント ( client.py ) を使用すると、自然言語を使用して MCP サービスと対話できます。
1. クライアントの依存関係をインストールする
uv pip install openai rich2. クライアントを構成する
client.py内で次の設定を編集します。
# Initialize OpenAI client
self.client = AsyncOpenAI(
base_url="https://your-api-endpoint",
api_key="YOUR_API_KEY"
)
# Set model
self.model = "your-preferred-model"3. クライアントを実行する
uv run client.py [path/to/server.py]例:
uv run client.py ./server_monitor.pyクライアントコマンド
help- ヘルプを表示します。quit- クライアントを終了します。clear- 会話履歴を消去します。model <name>- モデルを切り替えます。
📄 ライセンス
このプロジェクトはMIT ライセンスに基づいてライセンスされています。
📌 注意事項
リモート SSH アクセスが適切に構成されていることを確認します。
実際の展開状況に基づいてツールのパラメータを調整します。
このプロジェクトは現在活発に開発中であり、フィードバックや貢献を歓迎します。