Skip to main content
Glama

MCP Coding Assistant mit Unterstützung für OpenAI + andere LLM-Anbieter

Eine leistungsstarke Python-Nachbildung von Claude Code mit verbesserter Echtzeitvisualisierung, Kostenmanagement und Model Context Protocol (MCP)-Serverfunktionen. Dieses Tool bietet eine natürlichsprachliche Schnittstelle für Softwareentwicklungsaufgaben mit Unterstützung mehrerer LLM-Anbieter.

VersionPython

Hauptmerkmale

  • Multi-Provider-Support: Funktioniert mit OpenAI, Anthropic und anderen LLM-Anbietern

  • Integration des Modellkontextprotokolls:

    • Wird als MCP-Server zur Verwendung mit Claude Desktop und anderen Clients ausgeführt

    • Stellen Sie mit dem integrierten MCP-Client eine Verbindung zu jedem MCP-Server her

    • Multi-Agenten-Synchronisierung zur Lösung komplexer Probleme

  • Echtzeit-Tool-Visualisierung: Sehen Sie den Fortschritt und die Ergebnisse der Tool-Ausführung in Echtzeit

  • Kostenmanagement: Verfolgen Sie Token-Nutzung und Ausgaben mit Budgetkontrollen

  • Umfassende Tool-Suite: Dateioperationen, Suche, Befehlsausführung und mehr

  • Verbesserte Benutzeroberfläche: Umfangreiche Terminaloberfläche mit Fortschrittsanzeige und Syntaxhervorhebung

  • Kontextoptimierung: Intelligente Konversationskomprimierung und Speicherverwaltung

  • Agentenkoordination: Spezialisierte Agenten mit unterschiedlichen Rollen können gemeinsam an Aufgaben arbeiten

Related MCP server: MCP Simple OpenAI Assistant

Installation

  1. Dieses Repository klonen

  2. Installieren Sie Abhängigkeiten:

pip install -r requirements.txt
  1. Erstellen Sie eine .env Datei mit Ihren API-Schlüsseln:

# Choose one or more providers OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here # Optional model selection OPENAI_MODEL=gpt-4o ANTHROPIC_MODEL=claude-3-opus-20240229

Verwendung

CLI-Modus

Führen Sie die CLI mit dem Standardanbieter aus (bestimmt anhand der verfügbaren API-Schlüssel):

python claude.py chat

Geben Sie einen Anbieter und ein Modell an:

python claude.py chat --provider openai --model gpt-4o

Legen Sie ein Budgetlimit fest, um die Kosten im Griff zu behalten:

python claude.py chat --budget 5.00

MCP-Servermodus

Als Model Context Protocol-Server ausführen:

python claude.py serve

Starten Sie im Entwicklungsmodus mit dem MCP Inspector:

python claude.py serve --dev

Host und Port konfigurieren:

python claude.py serve --host 0.0.0.0 --port 8000

Geben Sie zusätzliche Abhängigkeiten an:

python claude.py serve --dependencies pandas numpy

Umgebungsvariablen aus Datei laden:

python claude.py serve --env-file .env

MCP-Client-Modus

Stellen Sie eine Verbindung zu einem MCP-Server her und verwenden Sie Claude als Reasoning Engine:

python claude.py mcp-client path/to/server.py

Geben Sie ein Claude-Modell an:

python claude.py mcp-client path/to/server.py --model claude-3-5-sonnet-20241022

Probieren Sie den enthaltenen Beispielserver aus:

# In terminal 1 - start the server python examples/echo_server.py # In terminal 2 - connect with the client python claude.py mcp-client examples/echo_server.py

Multi-Agent-MCP-Modus

Starten Sie einen Multi-Agent-Client mit synchronisierten Agenten:

python claude.py mcp-multi-agent path/to/server.py

Verwenden Sie eine benutzerdefinierte Agentenkonfigurationsdatei:

python claude.py mcp-multi-agent path/to/server.py --config examples/agents_config.json

Beispiel mit dem Echoserver:

# In terminal 1 - start the server python examples/echo_server.py # In terminal 2 - launch the multi-agent client python claude.py mcp-multi-agent examples/echo_server.py --config examples/agents_config.json

Verfügbare Tools

  • Ansicht: Dateien mit optionalen Zeilenbegrenzungen lesen

  • Bearbeiten: Dateien mit präzisem Textersatz ändern

  • Ersetzen: Dateien erstellen oder überschreiben

  • GlobTool: Dateien durch Mustervergleich finden

  • GrepTool: Dateiinhalte mit regulären Ausdrücken durchsuchen

  • LS: Verzeichnisinhalte auflisten

  • Bash: Shell-Befehle ausführen

Chat-Befehle

  • /help: Verfügbare Befehle anzeigen

  • /compact: Konversationsverlauf komprimieren, um Token zu speichern

  • /version: Versionsinformationen anzeigen

  • /providers: Liste verfügbarer LLM-Anbieter

  • /cost: Kosten- und Nutzungsinformationen anzeigen

  • /budget [Betrag]: Legen Sie ein Budgetlimit fest

  • /quit, /exit: Beenden Sie die Anwendung

Architektur

Claude Code Python Edition basiert auf einer modularen Architektur:

/claude_code/ /lib/ /providers/ # LLM provider implementations /tools/ # Tool implementations /context/ # Context management /ui/ # UI components /monitoring/ # Cost tracking & metrics /commands/ # CLI commands /config/ # Configuration management /util/ # Utility functions claude.py # Main CLI entry point mcp_server.py # Model Context Protocol server

Verwendung mit dem Model Context Protocol

Verwenden von Claude Code als MCP-Server

Sobald der MCP-Server läuft, können Sie von Claude Desktop oder anderen MCP-kompatiblen Clients aus eine Verbindung zu ihm herstellen:

  1. Installieren und führen Sie den MCP-Server aus:

    python claude.py serve
  2. Öffnen Sie die Konfigurationsseite in Ihrem Browser:

    http://localhost:8000
  3. Befolgen Sie die Anweisungen zum Konfigurieren von Claude Desktop, einschließlich:

    • Kopieren der JSON-Konfiguration

    • Laden Sie die automatisch konfigurierte JSON-Datei herunter

    • Schritt-für-Schritt-Anleitung zur Einrichtung

Verwenden von Claude Code als MCP-Client

So stellen Sie mit Claude Code eine Verbindung zu einem beliebigen MCP-Server her:

  1. Stellen Sie sicher, dass Ihr Anthropic-API-Schlüssel in der Umgebung oder der .env-Datei vorhanden ist.

  2. Starten Sie den MCP-Server, mit dem Sie eine Verbindung herstellen möchten

  3. Stellen Sie eine Verbindung mithilfe des MCP-Clients her:

    python claude.py mcp-client path/to/server.py
  4. Geben Sie Anfragen in die interaktive Chat-Oberfläche ein

Verwenden des Multi-Agent-Modus

Bei komplexen Aufgaben ermöglicht der Multi-Agent-Modus die Zusammenarbeit mehrerer spezialisierter Agenten:

  1. Erstellen Sie eine Agentenkonfigurationsdatei oder verwenden Sie das bereitgestellte Beispiel

  2. Starten Sie Ihren MCP-Server

  3. Starten Sie den Multi-Agent-Client:

    python claude.py mcp-multi-agent path/to/server.py --config examples/agents_config.json
  4. Verwenden Sie die Befehlsschnittstelle, um mit mehreren Agenten zu interagieren:

    • Geben Sie eine Nachricht ein, die an alle Agenten gesendet werden soll

    • Verwenden Sie /talk Agent_Name message für die direkte Kommunikation

    • Verwenden Sie /agents , um alle verfügbaren Agenten anzuzeigen

    • Verwenden Sie /history , um den Konversationsverlauf anzuzeigen

Beitragen

  1. Forken Sie das Repository

  2. Erstellen eines Feature-Zweigs

  3. Implementieren Sie Ihre Änderungen mit Tests

  4. Senden einer Pull-Anfrage

Lizenz

MIT

Danksagung

Dieses Projekt ist vom Claude Code CLI-Tool von Anthropic inspiriert und wurde in Python mit zusätzlichen Funktionen für verbesserte Sichtbarkeit, Kostenmanagement und MCP-Serverfunktionen neu implementiert.# OpenAI Code Assistant

Ein leistungsstarker Befehlszeilen- und API-basierter Codierungsassistent, der OpenAI-APIs mit Funktionsaufrufen und Streaming verwendet.

Merkmale

  • Interaktive CLI zur Unterstützung beim Codieren

  • Web-API zur Integration mit anderen Anwendungen

  • Model Context Protocol (MCP)-Serverimplementierung

  • Replikationsunterstützung für hohe Verfügbarkeit

  • Toolbasierte Architektur für Erweiterbarkeit

  • Reinforcement Learning zur Werkzeugoptimierung

  • Webclient für browserbasierte Interaktion

Installation

  1. Klonen Sie das Repository

  2. Installieren Sie Abhängigkeiten:

    pip install -r requirements.txt
  3. Legen Sie Ihren OpenAI-API-Schlüssel fest:

    export OPENAI_API_KEY=your_api_key

Verwendung

CLI-Modus

Führen Sie den Assistenten im interaktiven CLI-Modus aus:

python cli.py

Optionen:

  • --model , -m : Geben Sie das zu verwendende Modell an (Standard: gpt-4o)

  • --temperature , -t : Temperatur für die Antwortgenerierung festlegen (Standard: 0)

  • --verbose , -v : Ausführliche Ausgabe mit zusätzlichen Informationen aktivieren

  • --enable-rl/--disable-rl : Aktivieren/Deaktivieren des bestärkenden Lernens zur Tool-Optimierung

  • --rl-update : Manuelles Auslösen einer Aktualisierung des RL-Modells

API-Servermodus

Führen Sie den Assistenten als API-Server aus:

python cli.py serve

Optionen:

  • --host : Hostadresse, an die gebunden werden soll (Standard: 127.0.0.1)

  • --port , -p : Port, auf dem gelauscht wird (Standard: 8000)

  • --workers , -w : Anzahl der Arbeitsprozesse (Standard: 1)

  • --enable-replication : Replikation zwischen Instanzen aktivieren

  • --primary/--secondary : Ob dies eine primäre oder sekundäre Instanz ist

  • --peer : Peer-Instanzen, mit denen repliziert werden soll (Host:Port), kann mehrfach angegeben werden

MCP-Servermodus

Führen Sie den Assistenten als Model Context Protocol (MCP)-Server aus:

python cli.py mcp-serve

Optionen:

  • --host : Hostadresse, an die gebunden werden soll (Standard: 127.0.0.1)

  • --port , -p : Port, auf dem gelauscht wird (Standard: 8000)

  • --dev : Entwicklungsmodus mit zusätzlicher Protokollierung aktivieren

  • --dependencies : Zusätzliche zu installierende Python-Abhängigkeiten

  • --env-file : Pfad zur .env-Datei mit Umgebungsvariablen

MCP-Client-Modus

Stellen Sie eine Verbindung zu einem MCP-Server her und verwenden Sie dabei den Assistenten als Schlussfolgerungs-Engine:

python cli.py mcp-client path/to/server.py

Optionen:

  • --model , -m : Für die Schlussfolgerung zu verwendendes Modell (Standard: gpt-4o)

  • --host : Hostadresse für den MCP-Server (Standard: 127.0.0.1)

  • --port , -p : Port für den MCP-Server (Standard: 8000)

Bereitstellungsskript

Verwenden Sie zur einfacheren Bereitstellung das bereitgestellte Skript:

./deploy.sh --host 0.0.0.0 --port 8000 --workers 4

So aktivieren Sie die Replikation:

# Primary instance ./deploy.sh --enable-replication --port 8000 # Secondary instance ./deploy.sh --enable-replication --secondary --port 8001 --peer 127.0.0.1:8000

Webclient

Um den Webclient zu verwenden, öffnen Sie web-client.html in Ihrem Browser. Stellen Sie sicher, dass der API-Server läuft.

API-Endpunkte

Standard-API-Endpunkte

  • POST /conversation : Erstellen Sie eine neue Konversation

  • POST /conversation/{conversation_id}/message : Senden Sie eine Nachricht an eine Konversation

  • POST /conversation/{conversation_id}/message/stream : Streamen Sie eine Nachrichtenantwort

  • GET /conversation/{conversation_id} : Konversationsdetails abrufen

  • DELETE /conversation/{conversation_id} : Eine Konversation löschen

  • GET /health : Endpunkt der Integritätsprüfung

MCP-Protokollendpunkte

  • GET / : Integritätsprüfung (MCP-Protokoll)

  • POST /context : Kontext für eine Eingabeaufforderungsvorlage abrufen

  • GET /prompts : Listet verfügbare Eingabeaufforderungsvorlagen auf

  • GET /prompts/{prompt_id} : Holen Sie sich eine bestimmte Eingabeaufforderungsvorlage

  • POST /prompts : Erstellen Sie eine neue Eingabeaufforderungsvorlage

  • PUT /prompts/{prompt_id} : Aktualisieren Sie eine vorhandene Eingabeaufforderungsvorlage

  • DELETE /prompts/{prompt_id} : Löscht eine Eingabeaufforderungsvorlage

Replikation

Das Replikationssystem ermöglicht die Ausführung mehrerer Instanzen des Assistenten mit synchronisiertem Status. Dies bietet:

  • Hohe Verfügbarkeit

  • Lastenausgleich

  • Fehlertoleranz

So richten Sie die Replikation ein:

  1. Starten Sie eine primäre Instanz mit --enable-replication

  2. Starten Sie sekundäre Instanzen mit --enable-replication --secondary --peer [primary-host:port]

Werkzeuge

Der Assistent umfasst verschiedene Tools:

  • Wetter: Aktuelles Wetter für einen Standort abrufen

  • Ansicht: Dateien aus dem Dateisystem lesen

  • Bearbeiten: Dateien bearbeiten

  • Ersetzen: Dateien schreiben

  • Bash: Bash-Befehle ausführen

  • GlobTool: Dateimustervergleich

  • GrepTool: Inhaltssuche

  • LS: Verzeichnisinhalte auflisten

  • JinaSearch: Websuche mit Jina.ai

  • JinaFactCheck: Faktencheck mit Jina.ai

  • JinaReadURL: Webseiten lesen und zusammenfassen

CLI-Befehle

  • /help : Hilfemeldung anzeigen

  • /compact : Komprimieren Sie die Konversation, um die Token-Nutzung zu reduzieren

  • /status : Token-Nutzung und Sitzungsinformationen anzeigen

  • /config : Aktuelle Konfigurationseinstellungen anzeigen

  • /rl-status : Zeigt den Status des RL-Tool-Optimierers an (falls aktiviert)

  • /rl-update : Das RL-Modell manuell aktualisieren (falls aktiviert)

  • /rl-stats : Statistik zur Tool-Nutzung anzeigen (falls aktiviert)

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/arthurcolle/openai-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server