Skip to main content
Glama

ChatGPT MCP Server

ChatGPT MCP サーバー

カスタム GPT インターフェースを通じて Docker 管理機能を提供するモデル コンテキスト プロトコル (MCP) サーバー。

特徴

  • 自然言語による Docker コンテナ管理
  • モデルコンテキストプロトコル(MCP)に基づいて構築
  • TypeScript実装
  • コンテナ化されたデプロイメント
  • 堅牢なエラー処理と正常なシャットダウン
  • リソース管理とポート処理
  • レート制限とAPIキー認証

設定

Smithery経由でインストール

Smithery経由で Claude Desktop 用の ChatGPT MCP サーバーを自動的にインストールするには:

npx -y @smithery/cli install @Toowiredd/chatgpt-mcp-server --client claude

手動インストール

  1. リポジトリをクローンする
git clone https://github.com/toowiredd/chatgpt-mcp-server.git cd chatgpt-mcp-server
  1. 依存関係をインストールする
npm install
  1. 環境ファイルを作成する
cp env.example .env # Edit .env with your configuration
  1. プロジェクトを構築する
npm run build

Dockerで実行する

  1. コンテナを構築する
npm run docker:build
  1. コンテナを実行する
npm run docker:run

または手動で:

docker run -d \ -p 3001:3001 \ --env-file .env \ -v /var/run/docker.sock:/var/run/docker.sock \ chatgpt-mcp-server

発達

  • npm run build - TypeScriptコードをビルドする
  • npm run watch - 変更を監視して再構築する
  • npm run inspector - MCPインスペクターツールを実行する

環境変数

  • API_KEY - API認証キー
  • HTTP_PORT - サーバーポート(デフォルト: 3001)
  • RATE_LIMIT_REQUESTS - ウィンドウあたりの最大リクエスト数
  • RATE_LIMIT_WINDOW - ウィンドウサイズ(ミリ秒)

リソース管理

サーバーは堅牢なリソース管理を実装します。

  • プロセスシグナル(SIGINT、SIGTERM、SIGQUIT)による正常なシャットダウン
  • 接続の追跡と管理
  • リクエストタイムアウト処理
  • ポート競合検出
  • キープアライブ接続管理
  • アクティブなリクエストの追跡と正常な完了

シャットダウンプロセス

  1. サーバーはプロセスシグナルで正常なシャットダウンを開始します
  2. 新しい接続は拒否されます
  3. アクティブなリクエストは完了を許可されます(タイムアウト付き)
  4. キープアライブ接続が閉じられました
  5. サーバーポートが適切に解放されている
  6. リソースが適切に解放される

エラー処理

  • ポートの競合が検出され報告される
  • 処理されない拒否と例外がキャッチされる
  • ネットワークエラーは適切に処理されます
  • 適切な処理によりリソースの漏洩を防止
  • タイムアウトにより、シャットダウン中にサーバーがハングアップしないようにします

ライセンス

マサチューセッツ工科大学

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

カスタム GPT インターフェースを使用した自然言語による対話を通じて Docker コンテナの管理を可能にするモデル コンテキスト プロトコル サーバー。

  1. 特徴
    1. 設定
      1. Smithery経由でインストール
      2. 手動インストール
    2. Dockerで実行する
      1. 発達
        1. 環境変数
          1. リソース管理
            1. シャットダウンプロセス
            2. エラー処理
          2. ライセンス

            Related MCP Servers

            • A
              security
              A
              license
              A
              quality
              A powerful Model Context Protocol (MCP) server for Docker operations, enabling seamless container and compose stack management through Claude AI.
              Last updated -
              4
              160
              Python
              MIT License
              • Apple
            • -
              security
              F
              license
              -
              quality
              Provides a scalable, containerized infrastructure for deploying and managing Model Context Protocol servers with monitoring, high availability, and secure configurations.
              Last updated -
            • -
              security
              F
              license
              -
              quality
              A Model Context Protocol server that enables Claude to manage software development projects with complete context awareness and code execution through Docker environments.
              Last updated -
              1
              Python
              • Apple
            • -
              security
              A
              license
              -
              quality
              An MCP server that allows managing Docker containers through natural language, enabling users to compose, introspect, and debug containers without running commands themselves.
              Last updated -
              440
              Python
              GPL 3.0
              • Apple

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Toowiredd/chatgpt-mcp-server'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server