Schnellinstallation ⚡
SDK mit Pip 🐍
Wie ist es nützlich?
Kern
code2prompt
ist ein Code-Ingestion-Tool, das die Erstellung von LLM-Eingabeaufforderungen für Codeanalyse, -generierung und andere Aufgaben optimiert. Es durchsucht Verzeichnisse, erstellt eine Baumstruktur und sammelt Informationen zu jeder Datei. Die Kernbibliothek lässt sich problemlos in andere Anwendungen integrieren.
Befehlszeilenschnittstelle (CLI)
Die Befehlszeilenschnittstelle (CLI) code2prompt
wurde entwickelt, damit Benutzer Eingabeaufforderungen direkt aus Ihrer Codebasis generieren können. Die generierte Eingabeaufforderung wird automatisch in die Zwischenablage kopiert und kann auch in einer Ausgabedatei gespeichert werden. Darüber hinaus können Sie die Eingabeaufforderungsgenerierung mithilfe von Handlebars-Vorlagen anpassen. Sehen Sie sich die bereitgestellten Eingabeaufforderungen in der Dokumentation an!
SDK
Das Software Development Kit (SDK) code2prompt
bietet eine Python-Anbindung an die Kernbibliothek. Dies ist ideal für KI-Agenten oder Automatisierungsskripte, die nahtlos mit der Codebasis interagieren sollen. Das SDK wird auf PyPi gehostet und kann über Pip installiert werden.
MCP
code2prompt
ist auch als Model Context Protocol (MCP)-Server verfügbar und kann als lokaler Dienst ausgeführt werden. Dies ermöglicht LLMs die optimale Nutzung, indem es ihnen ein Tool zur automatischen Erfassung eines gut strukturierten Kontexts Ihrer Codebasis bietet.
Dokumentation 📚
Ausführliche Anweisungen finden Sie in unserer Online -Dokumentation .
Merkmale
Code2Prompt transformiert Ihre gesamte Codebasis in eine gut strukturierte Eingabeaufforderung für große Sprachmodelle. Zu den wichtigsten Funktionen gehören:
- Automatische Codeverarbeitung : Konvertieren Sie Codebasen beliebiger Größe in lesbare, formatierte Eingabeaufforderungen
- Intelligente Filterung : Dateien mithilfe von Glob-Mustern einschließen/ausschließen und
.gitignore
-Regeln beachten - Flexible Vorlagen : Passen Sie Eingabeaufforderungen mit Handlebars-Vorlagen für verschiedene Anwendungsfälle an
- Token-Tracking : Verfolgen Sie die Token-Nutzung, um innerhalb der LLM-Kontextgrenzen zu bleiben
- Git-Integration : Fügen Sie Diffs, Protokolle und Zweigvergleiche in Ihre Eingabeaufforderungen ein
- Entwicklererfahrung : Automatisches Kopieren der Zwischenablage, Zeilennummern und Dateiorganisationsoptionen
Schluss mit dem manuellen Kopieren von Dateien und Formatieren von Code für LLMs. Code2Prompt übernimmt die mühsame Arbeit, sodass Sie sich ganz auf die Gewinnung von Erkenntnissen und Lösungen aus KI-Modellen konzentrieren können.
Alternative Installation
Ausführliche Installationsanweisungen finden Sie in der Dokumentation .
Binärversionen
Laden Sie die neueste Binärdatei für Ihr Betriebssystem von Releases herunter.
Quellcode-Build
Erfordert:
Sternengeschichte
Lizenz
Lizenziert unter der MIT-Lizenz, weitere Informationen finden Sie unter LIZENZ.
Hat Ihnen das Projekt gefallen?
Wenn Ihnen das Projekt gefallen hat und Sie es nützlich fanden, geben Sie ihm bitte einen :Stern:!
Beitrag
Möglichkeiten zur Beteiligung:
- Schlagen Sie eine Funktion vor
- Einen Fehler melden
- Beheben Sie etwas und öffnen Sie eine Pull-Anfrage
- Helfen Sie mir, den Code zu dokumentieren
- Sag es weiter
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Ein Code-Ingestion-Tool, das Ihren Code sofort in KI-optimierte Eingabeaufforderungen umwandelt. Erfassen Sie den relevanten Kontext mit code2prompt. Erfahren Sie mehr unter code2prompt.dev
- Wie ist es nützlich?
- Dokumentation 📚
- Merkmale
- Alternative Installation
- Sternengeschichte
- Lizenz
- Hat Ihnen das Projekt gefallen?
- Beitrag
Related Resources
Related MCP Servers
- -securityAlicense-qualityProvides pre-defined prompt templates for AI assistants to generate comprehensive plans for TypeScript projects, API architectures, and GitHub workflows.Last updated -0TypeScriptMIT License
- -securityAlicense-qualityAn MCP server that analyzes codebases and generates contextual prompts, making it easier for AI assistants to understand and work with code repositories.Last updated -10PythonMIT License
- -securityAlicense-qualityServes prompt templates through a standardized protocol for transforming basic user queries into optimized prompts for AI systems.Last updated -PythonApache 2.0
- -securityAlicense-qualityAllows AI assistants to access prompts from promptz.dev API without copy-pasting, reducing context switching in your development workflow.Last updated -5TypeScriptMIT No Attribution