Skip to main content
Glama

MCP Server with Docker

MCP-Server mit Docker

Dieses Projekt zeigt, wie das Model Control Protocol (MCP) in die API von OpenAI integriert wird, sodass OpenAI auf Tools zugreifen und diese verwenden kann, die von einem in Docker ausgeführten MCP-Server bereitgestellt werden.

Voraussetzungen

  • Docker auf Ihrem System installiert
  • Git (zum Klonen des Repository)

Projektstruktur

  • server.py : Die MCP-Serverimplementierung mit einem Tool
  • client.py : Ein Client, der sich mit dem Server verbindet und den Agenten aufruft
  • Dockerfile : Anleitung zum Erstellen des Docker-Images
  • requirements.txt : Python-Abhängigkeiten für das Projekt

Erklärung des Datenflusses

  1. Benutzerabfrage : Der Benutzer sendet eine Abfrage an das System (z. B. „Wie lauten die Urlaubsrichtlinien unseres Unternehmens?“).
  2. OpenAI API : OpenAI empfängt die Abfrage und die verfügbaren Tools vom MCP-Server
  3. Werkzeugauswahl : OpenAI entscheidet anhand der Abfrage, welche Werkzeuge verwendet werden sollen
  4. MCP-Client : Der Client empfängt die Tool-Aufrufanforderung von OpenAI und leitet sie an den MCP-Server weiter
  5. MCP-Server : Der Server führt das angeforderte Tool aus (z. B. Abrufen von Wissensdatenbankdaten).
  6. Antwortfluss : Das Tool-Ergebnis fließt über den MCP-Client zurück an OpenAI
  7. Endgültige Antwort : OpenAI generiert eine endgültige Antwort, die die Tooldaten enthält

Ausführen mit Docker

Schritt 1: Erstellen Sie das Docker-Image

docker build -t mcp-server .

Schritt 2: Ausführen des Docker-Containers

docker run -p 8050:8050 mcp-server

Dadurch wird der MCP-Server in einem Docker-Container gestartet und auf Port 8050 verfügbar gemacht.

Ausführen des Clients

Sobald der Server läuft, können Sie den Client in einem separaten Terminal ausführen:

python client.py

Der Client stellt eine Verbindung zum Server her, listet die verfügbaren Tools auf und ruft den Agenten an, um die Abfrage zu beantworten.

Fehlerbehebung

Wenn Verbindungsprobleme auftreten:

  1. Überprüfen Sie, ob der Server läuft : Stellen Sie sicher, dass der Docker-Container mit docker ps läuft.
  2. Portzuordnung überprüfen : Stellen Sie sicher, dass der Port mit docker ps richtig zugeordnet ist, oder überprüfen Sie die Ausgabe des Befehls docker run .
  3. Serverprotokolle prüfen : Zeigen Sie die Serverprotokolle mit docker logs <container_id> an, um zu sehen, ob Fehler vorliegen.
  4. Host-Bindung : Der Server ist so konfiguriert, dass er an 0.0.0.0 statt an 127.0.0.1 gebunden ist, um den Zugriff von außerhalb des Containers zu ermöglichen. Sollten weiterhin Probleme auftreten, überprüfen Sie möglicherweise Ihre Firewall-Einstellungen.
  5. Netzwerkprobleme : Wenn Sie Docker auf einem Remotecomputer ausführen, stellen Sie sicher, dass der Port von Ihrem Clientcomputer aus zugänglich ist.

Hinweise

  • Der Server ist für die Verwendung des SSE-Transports (Server-Sent Events) konfiguriert und lauscht auf Port 8050.
  • Der Client stellt eine Verbindung zum Server unter http://localhost:8050/sse .
  • Stellen Sie sicher, dass der Server läuft, bevor Sie den Client starten.
-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Ein Projekt, das das Model Control Protocol mit der API von OpenAI integriert und OpenAI so den Zugriff auf und die Nutzung von Tools ermöglicht, die von einem Docker-MCP-Server bereitgestellt werden.

  1. Voraussetzungen
    1. Projektstruktur
      1. Erklärung des Datenflusses
    2. Ausführen mit Docker
      1. Schritt 1: Erstellen Sie das Docker-Image
      2. Schritt 2: Ausführen des Docker-Containers
    3. Ausführen des Clients
      1. Fehlerbehebung
        1. Hinweise

          Related MCP Servers

          • -
            security
            A
            license
            -
            quality
            A Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
            Last updated -
            1
            24
            28
            JavaScript
            MIT License
            • Apple
          • -
            security
            A
            license
            -
            quality
            A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
            Last updated -
            26
            Python
            MIT License
            • Apple
          • A
            security
            A
            license
            A
            quality
            Enables integration with OpenAI models through the MCP protocol, supporting concise and detailed responses for use with Claude Desktop.
            Last updated -
            1
            1
            Python
            MIT License
            • Apple
            • Linux
          • -
            security
            F
            license
            -
            quality
            A Model Context Protocol server implementation that enables connection between OpenAI APIs and MCP clients for coding assistance with features like CLI interaction, web API integration, and tool-based architecture.
            Last updated -
            28
            Python
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/TomasRodriguez2002/MCP'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server