Skip to main content
Glama

Code2Prompt-MCP

Ein MCP-Server, der kontextbezogene Eingabeaufforderungen aus Codebasen generiert, sodass KI-Assistenten Ihre Code-Repositories leichter verstehen und damit arbeiten können.

Um

code2prompt-mcp nutzt die leistungsstarke Rust-Bibliothek code2prompt-rs, um Codebasen zu analysieren und strukturierte Zusammenfassungen zu erstellen. Es hilft, die Lücke zwischen Ihrem Code und Ihren Sprachmodellen zu schließen, indem es relevanten Kontext in einem für die KI-Nutzung optimierten Format extrahiert.

Related MCP server: Kodit

Installation

Dieses Projekt verwendet Rye zur Abhängigkeitsverwaltung. Stellen Sie sicher, dass Sie es installiert haben.

Um die erforderlichen Abhängigkeiten zu installieren und das Modul in der lokalen Umgebung zu erstellen, führen Sie Folgendes aus:

# Clone the repository git clone https://github.com/odancona/code2prompt-mcp.git cd code2prompt-mcp # Install dependencies with Rye rye build

Es werden alle erforderlichen Abhängigkeiten installiert, die in der Datei pyproject.toml im Verzeichnis .venv angegeben sind.

Verwendung

Führen Sie den MCP-Server aus:

rye run python code2prompt_mcp.main

Lizenz

MIT-Lizenz – Einzelheiten finden Sie in der Datei LICENSE.

Entwicklung

Zum Testen können Sie den MCP Inspector verwenden:

npx @modelcontextprotocol/inspector python -m code2prompt_mcp.main
-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ODAncona/code2prompt-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server