Skip to main content
Glama

OpenAI MCP Server

MCP Coding Assistant mit Unterstützung für OpenAI + andere LLM-Anbieter

Eine leistungsstarke Python-Nachbildung von Claude Code mit verbesserter Echtzeitvisualisierung, Kostenmanagement und Model Context Protocol (MCP)-Serverfunktionen. Dieses Tool bietet eine natürlichsprachliche Schnittstelle für Softwareentwicklungsaufgaben mit Unterstützung mehrerer LLM-Anbieter.

VersionPython

Hauptmerkmale

  • Multi-Provider-Support: Funktioniert mit OpenAI, Anthropic und anderen LLM-Anbietern
  • Integration des Modellkontextprotokolls:
    • Wird als MCP-Server zur Verwendung mit Claude Desktop und anderen Clients ausgeführt
    • Stellen Sie mit dem integrierten MCP-Client eine Verbindung zu jedem MCP-Server her
    • Multi-Agenten-Synchronisierung zur Lösung komplexer Probleme
  • Echtzeit-Tool-Visualisierung: Sehen Sie den Fortschritt und die Ergebnisse der Tool-Ausführung in Echtzeit
  • Kostenmanagement: Verfolgen Sie Token-Nutzung und Ausgaben mit Budgetkontrollen
  • Umfassende Tool-Suite: Dateioperationen, Suche, Befehlsausführung und mehr
  • Verbesserte Benutzeroberfläche: Umfangreiche Terminaloberfläche mit Fortschrittsanzeige und Syntaxhervorhebung
  • Kontextoptimierung: Intelligente Konversationskomprimierung und Speicherverwaltung
  • Agentenkoordination: Spezialisierte Agenten mit unterschiedlichen Rollen können gemeinsam an Aufgaben arbeiten

Installation

  1. Dieses Repository klonen
  2. Installieren Sie Abhängigkeiten:
pip install -r requirements.txt
  1. Erstellen Sie eine .env Datei mit Ihren API-Schlüsseln:
# Choose one or more providers OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here # Optional model selection OPENAI_MODEL=gpt-4o ANTHROPIC_MODEL=claude-3-opus-20240229

Verwendung

CLI-Modus

Führen Sie die CLI mit dem Standardanbieter aus (bestimmt anhand der verfügbaren API-Schlüssel):

python claude.py chat

Geben Sie einen Anbieter und ein Modell an:

python claude.py chat --provider openai --model gpt-4o

Legen Sie ein Budgetlimit fest, um die Kosten im Griff zu behalten:

python claude.py chat --budget 5.00

MCP-Servermodus

Als Model Context Protocol-Server ausführen:

python claude.py serve

Starten Sie im Entwicklungsmodus mit dem MCP Inspector:

python claude.py serve --dev

Host und Port konfigurieren:

python claude.py serve --host 0.0.0.0 --port 8000

Geben Sie zusätzliche Abhängigkeiten an:

python claude.py serve --dependencies pandas numpy

Umgebungsvariablen aus Datei laden:

python claude.py serve --env-file .env

MCP-Client-Modus

Stellen Sie eine Verbindung zu einem MCP-Server her und verwenden Sie Claude als Reasoning Engine:

python claude.py mcp-client path/to/server.py

Geben Sie ein Claude-Modell an:

python claude.py mcp-client path/to/server.py --model claude-3-5-sonnet-20241022

Probieren Sie den enthaltenen Beispielserver aus:

# In terminal 1 - start the server python examples/echo_server.py # In terminal 2 - connect with the client python claude.py mcp-client examples/echo_server.py

Multi-Agent-MCP-Modus

Starten Sie einen Multi-Agent-Client mit synchronisierten Agenten:

python claude.py mcp-multi-agent path/to/server.py

Verwenden Sie eine benutzerdefinierte Agentenkonfigurationsdatei:

python claude.py mcp-multi-agent path/to/server.py --config examples/agents_config.json

Beispiel mit dem Echoserver:

# In terminal 1 - start the server python examples/echo_server.py # In terminal 2 - launch the multi-agent client python claude.py mcp-multi-agent examples/echo_server.py --config examples/agents_config.json

Verfügbare Tools

  • Ansicht: Dateien mit optionalen Zeilenbegrenzungen lesen
  • Bearbeiten: Dateien mit präzisem Textersatz ändern
  • Ersetzen: Dateien erstellen oder überschreiben
  • GlobTool: Dateien durch Mustervergleich finden
  • GrepTool: Dateiinhalte mit regulären Ausdrücken durchsuchen
  • LS: Verzeichnisinhalte auflisten
  • Bash: Shell-Befehle ausführen

Chat-Befehle

  • /help: Verfügbare Befehle anzeigen
  • /compact: Konversationsverlauf komprimieren, um Token zu speichern
  • /version: Versionsinformationen anzeigen
  • /providers: Liste verfügbarer LLM-Anbieter
  • /cost: Kosten- und Nutzungsinformationen anzeigen
  • /budget [Betrag]: Legen Sie ein Budgetlimit fest
  • /quit, /exit: Beenden Sie die Anwendung

Architektur

Claude Code Python Edition basiert auf einer modularen Architektur:

/claude_code/ /lib/ /providers/ # LLM provider implementations /tools/ # Tool implementations /context/ # Context management /ui/ # UI components /monitoring/ # Cost tracking & metrics /commands/ # CLI commands /config/ # Configuration management /util/ # Utility functions claude.py # Main CLI entry point mcp_server.py # Model Context Protocol server

Verwendung mit dem Model Context Protocol

Verwenden von Claude Code als MCP-Server

Sobald der MCP-Server läuft, können Sie von Claude Desktop oder anderen MCP-kompatiblen Clients aus eine Verbindung zu ihm herstellen:

  1. Installieren und führen Sie den MCP-Server aus:
    python claude.py serve
  2. Öffnen Sie die Konfigurationsseite in Ihrem Browser:
    http://localhost:8000
  3. Befolgen Sie die Anweisungen zum Konfigurieren von Claude Desktop, einschließlich:
    • Kopieren der JSON-Konfiguration
    • Laden Sie die automatisch konfigurierte JSON-Datei herunter
    • Schritt-für-Schritt-Anleitung zur Einrichtung

Verwenden von Claude Code als MCP-Client

So stellen Sie mit Claude Code eine Verbindung zu einem beliebigen MCP-Server her:

  1. Stellen Sie sicher, dass Ihr Anthropic-API-Schlüssel in der Umgebung oder der .env-Datei vorhanden ist.
  2. Starten Sie den MCP-Server, mit dem Sie eine Verbindung herstellen möchten
  3. Stellen Sie eine Verbindung mithilfe des MCP-Clients her:
    python claude.py mcp-client path/to/server.py
  4. Geben Sie Anfragen in die interaktive Chat-Oberfläche ein

Verwenden des Multi-Agent-Modus

Bei komplexen Aufgaben ermöglicht der Multi-Agent-Modus die Zusammenarbeit mehrerer spezialisierter Agenten:

  1. Erstellen Sie eine Agentenkonfigurationsdatei oder verwenden Sie das bereitgestellte Beispiel
  2. Starten Sie Ihren MCP-Server
  3. Starten Sie den Multi-Agent-Client:
    python claude.py mcp-multi-agent path/to/server.py --config examples/agents_config.json
  4. Verwenden Sie die Befehlsschnittstelle, um mit mehreren Agenten zu interagieren:
    • Geben Sie eine Nachricht ein, die an alle Agenten gesendet werden soll
    • Verwenden Sie /talk Agent_Name message für die direkte Kommunikation
    • Verwenden Sie /agents , um alle verfügbaren Agenten anzuzeigen
    • Verwenden Sie /history , um den Konversationsverlauf anzuzeigen

Beitragen

  1. Forken Sie das Repository
  2. Erstellen eines Feature-Zweigs
  3. Implementieren Sie Ihre Änderungen mit Tests
  4. Senden einer Pull-Anfrage

Lizenz

MIT

Danksagung

Dieses Projekt ist vom Claude Code CLI-Tool von Anthropic inspiriert und wurde in Python mit zusätzlichen Funktionen für verbesserte Sichtbarkeit, Kostenmanagement und MCP-Serverfunktionen neu implementiert.# OpenAI Code Assistant

Ein leistungsstarker Befehlszeilen- und API-basierter Codierungsassistent, der OpenAI-APIs mit Funktionsaufrufen und Streaming verwendet.

Merkmale

  • Interaktive CLI zur Unterstützung beim Codieren
  • Web-API zur Integration mit anderen Anwendungen
  • Model Context Protocol (MCP)-Serverimplementierung
  • Replikationsunterstützung für hohe Verfügbarkeit
  • Toolbasierte Architektur für Erweiterbarkeit
  • Reinforcement Learning zur Werkzeugoptimierung
  • Webclient für browserbasierte Interaktion

Installation

  1. Klonen Sie das Repository
  2. Installieren Sie Abhängigkeiten:
    pip install -r requirements.txt
  3. Legen Sie Ihren OpenAI-API-Schlüssel fest:
    export OPENAI_API_KEY=your_api_key

Verwendung

CLI-Modus

Führen Sie den Assistenten im interaktiven CLI-Modus aus:

python cli.py

Optionen:

  • --model , -m : Geben Sie das zu verwendende Modell an (Standard: gpt-4o)
  • --temperature , -t : Temperatur für die Antwortgenerierung festlegen (Standard: 0)
  • --verbose , -v : Ausführliche Ausgabe mit zusätzlichen Informationen aktivieren
  • --enable-rl/--disable-rl : Aktivieren/Deaktivieren des bestärkenden Lernens zur Tool-Optimierung
  • --rl-update : Manuelles Auslösen einer Aktualisierung des RL-Modells

API-Servermodus

Führen Sie den Assistenten als API-Server aus:

python cli.py serve

Optionen:

  • --host : Hostadresse, an die gebunden werden soll (Standard: 127.0.0.1)
  • --port , -p : Port, auf dem gelauscht wird (Standard: 8000)
  • --workers , -w : Anzahl der Arbeitsprozesse (Standard: 1)
  • --enable-replication : Replikation zwischen Instanzen aktivieren
  • --primary/--secondary : Ob dies eine primäre oder sekundäre Instanz ist
  • --peer : Peer-Instanzen, mit denen repliziert werden soll (Host:Port), kann mehrfach angegeben werden

MCP-Servermodus

Führen Sie den Assistenten als Model Context Protocol (MCP)-Server aus:

python cli.py mcp-serve

Optionen:

  • --host : Hostadresse, an die gebunden werden soll (Standard: 127.0.0.1)
  • --port , -p : Port, auf dem gelauscht wird (Standard: 8000)
  • --dev : Entwicklungsmodus mit zusätzlicher Protokollierung aktivieren
  • --dependencies : Zusätzliche zu installierende Python-Abhängigkeiten
  • --env-file : Pfad zur .env-Datei mit Umgebungsvariablen

MCP-Client-Modus

Stellen Sie eine Verbindung zu einem MCP-Server her und verwenden Sie dabei den Assistenten als Schlussfolgerungs-Engine:

python cli.py mcp-client path/to/server.py

Optionen:

  • --model , -m : Für die Schlussfolgerung zu verwendendes Modell (Standard: gpt-4o)
  • --host : Hostadresse für den MCP-Server (Standard: 127.0.0.1)
  • --port , -p : Port für den MCP-Server (Standard: 8000)

Bereitstellungsskript

Verwenden Sie zur einfacheren Bereitstellung das bereitgestellte Skript:

./deploy.sh --host 0.0.0.0 --port 8000 --workers 4

So aktivieren Sie die Replikation:

# Primary instance ./deploy.sh --enable-replication --port 8000 # Secondary instance ./deploy.sh --enable-replication --secondary --port 8001 --peer 127.0.0.1:8000

Webclient

Um den Webclient zu verwenden, öffnen Sie web-client.html in Ihrem Browser. Stellen Sie sicher, dass der API-Server läuft.

API-Endpunkte

Standard-API-Endpunkte

  • POST /conversation : Erstellen Sie eine neue Konversation
  • POST /conversation/{conversation_id}/message : Senden Sie eine Nachricht an eine Konversation
  • POST /conversation/{conversation_id}/message/stream : Streamen Sie eine Nachrichtenantwort
  • GET /conversation/{conversation_id} : Konversationsdetails abrufen
  • DELETE /conversation/{conversation_id} : Eine Konversation löschen
  • GET /health : Endpunkt der Integritätsprüfung

MCP-Protokollendpunkte

  • GET / : Integritätsprüfung (MCP-Protokoll)
  • POST /context : Kontext für eine Eingabeaufforderungsvorlage abrufen
  • GET /prompts : Listet verfügbare Eingabeaufforderungsvorlagen auf
  • GET /prompts/{prompt_id} : Holen Sie sich eine bestimmte Eingabeaufforderungsvorlage
  • POST /prompts : Erstellen Sie eine neue Eingabeaufforderungsvorlage
  • PUT /prompts/{prompt_id} : Aktualisieren Sie eine vorhandene Eingabeaufforderungsvorlage
  • DELETE /prompts/{prompt_id} : Löscht eine Eingabeaufforderungsvorlage

Replikation

Das Replikationssystem ermöglicht die Ausführung mehrerer Instanzen des Assistenten mit synchronisiertem Status. Dies bietet:

  • Hohe Verfügbarkeit
  • Lastenausgleich
  • Fehlertoleranz

So richten Sie die Replikation ein:

  1. Starten Sie eine primäre Instanz mit --enable-replication
  2. Starten Sie sekundäre Instanzen mit --enable-replication --secondary --peer [primary-host:port]

Werkzeuge

Der Assistent umfasst verschiedene Tools:

  • Wetter: Aktuelles Wetter für einen Standort abrufen
  • Ansicht: Dateien aus dem Dateisystem lesen
  • Bearbeiten: Dateien bearbeiten
  • Ersetzen: Dateien schreiben
  • Bash: Bash-Befehle ausführen
  • GlobTool: Dateimustervergleich
  • GrepTool: Inhaltssuche
  • LS: Verzeichnisinhalte auflisten
  • JinaSearch: Websuche mit Jina.ai
  • JinaFactCheck: Faktencheck mit Jina.ai
  • JinaReadURL: Webseiten lesen und zusammenfassen

CLI-Befehle

  • /help : Hilfemeldung anzeigen
  • /compact : Komprimieren Sie die Konversation, um die Token-Nutzung zu reduzieren
  • /status : Token-Nutzung und Sitzungsinformationen anzeigen
  • /config : Aktuelle Konfigurationseinstellungen anzeigen
  • /rl-status : Zeigt den Status des RL-Tool-Optimierers an (falls aktiviert)
  • /rl-update : Das RL-Modell manuell aktualisieren (falls aktiviert)
  • /rl-stats : Statistik zur Tool-Nutzung anzeigen (falls aktiviert)
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Eine Model Context Protocol-Serverimplementierung, die eine Verbindung zwischen OpenAI-APIs und MCP-Clients zur Codierungsunterstützung mit Funktionen wie CLI-Interaktion, Web-API-Integration und toolbasierter Architektur ermöglicht.

  1. Hauptmerkmale
    1. Installation
      1. Verwendung
        1. CLI-Modus
        2. MCP-Servermodus
        3. MCP-Client-Modus
        4. Multi-Agent-MCP-Modus
      2. Verfügbare Tools
        1. Chat-Befehle
          1. Architektur
            1. Verwendung mit dem Model Context Protocol
              1. Verwenden von Claude Code als MCP-Server
              2. Verwenden von Claude Code als MCP-Client
              3. Verwenden des Multi-Agent-Modus
            2. Beitragen
              1. Lizenz
                1. Danksagung
                  1. Merkmale
                    1. Installation
                      1. Verwendung
                        1. CLI-Modus
                        2. API-Servermodus
                        3. MCP-Servermodus
                        4. MCP-Client-Modus
                        5. Bereitstellungsskript
                        6. Webclient
                      2. API-Endpunkte
                        1. Standard-API-Endpunkte
                        2. MCP-Protokollendpunkte
                      3. Replikation
                        1. Werkzeuge
                          1. CLI-Befehle

                            Related MCP Servers

                            • -
                              security
                              A
                              license
                              -
                              quality
                              A Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
                              Last updated -
                              1
                              24
                              28
                              JavaScript
                              MIT License
                              • Apple
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A simple MCP server for interacting with OpenAI assistants. This server allows other tools (like Claude Desktop) to create and interact with OpenAI assistants through the Model Context Protocol.
                              Last updated -
                              26
                              Python
                              MIT License
                              • Apple
                            • -
                              security
                              A
                              license
                              -
                              quality
                              An MCP server that exposes HTTP methods defined in an OpenAPI specification as tools, enabling interaction with APIs via the Model Context Protocol.
                              Last updated -
                              2
                              Python
                              MIT License
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A Model Context Protocol (MCP) server implementation for the OpenLedger API. This server provides structured context to AI models according to the MCP specification.
                              Last updated -
                              8
                              TypeScript
                              Apache 2.0

                            View all related MCP servers

                            MCP directory API

                            We provide all the information about MCP servers via our MCP API.

                            curl -X GET 'https://glama.ai/api/mcp/v1/servers/arthurcolle/openai-mcp'

                            If you have feedback or need assistance with the MCP directory API, please join our Discord server