Context+
Context+
Semantische Intelligenz für Large-Scale Engineering.
Context+ ist ein MCP-Server für Entwickler, die 99% Genauigkeit verlangen. Durch die Kombination von RAG, Tree-sitter AST, Spektral-Clustering und Obsidian-artiger Verlinkung verwandelt Context+ eine riesige Codebasis in einen durchsuchbaren, hierarchischen Feature-Graphen.
Wenn Sie schon hier sind, schauen Sie sich mein anderes Projekt Airena an. Stellen Sie ein Team von KI-Agenten zusammen und treten Sie im direkten Vergleich gegen andere Orchestratoren an. Der erste Platz auf der Bestenliste erhält einen Preis von 1600 $!
https://github.com/user-attachments/assets/a97a451f-c9b4-468d-b036-15b65fc13e79
Werkzeuge
Erkundung
Werkzeug | Beschreibung |
| Struktureller AST-Baum eines Projekts mit Datei-Headern und Symbolbereichen (Zeilennummern für Funktionen/Klassen/Methoden). Dynamisches Pruning verkleinert die Ausgabe automatisch. |
| Funktionssignaturen, Klassenmethoden und Typdefinitionen mit Zeilenbereichen, ohne die vollständigen Körper zu lesen. Zeigt die API-Oberfläche. |
| Suche nach Bedeutung, nicht nach exaktem Text. Verwendet Embeddings über Datei-Header/Symbole und gibt die passenden Symboldefinitionszeilen zurück. |
| Semantische Suche auf Bezeichner-Ebene für Funktionen/Klassen/Variablen mit gerankten Aufrufstellen und Zeilennummern. |
| Durchsuchen der Codebasis nach Bedeutung mittels Spektral-Clustering. Gruppiert semantisch verwandte Dateien in beschriftete Cluster. |
Analyse
Werkzeug | Beschreibung |
| Verfolgt jede Datei und Zeile, in der ein Symbol importiert oder verwendet wird. Verhindert verwaiste Referenzen. |
| Führt native Linter und Compiler aus, um ungenutzte Variablen, toten Code und Typfehler zu finden. Unterstützt TypeScript, Python, Rust, Go. |
Code Ops
Werkzeug | Beschreibung |
| Der einzige Weg, Code zu schreiben. Validiert gegen strenge Regeln vor dem Speichern. Erstellt einen Schatten-Wiederherstellungspunkt vor dem Schreiben. |
| Obsidian-artiger Feature-Hub-Navigator. Hubs sind |
Versionskontrolle
Werkzeug | Beschreibung |
| Listet alle Schatten-Wiederherstellungspunkte auf, die von |
| Stellt Dateien auf ihren Zustand vor einer bestimmten KI-Änderung wieder her. Verwendet Schatten-Wiederherstellungspunkte. Beeinflusst nicht git. |
Speicher & RAG
Werkzeug | Beschreibung |
| Erstellt oder aktualisiert einen Speicherknoten (Konzept, Datei, Symbol, Notiz) mit automatisch generierten Embeddings. |
| Erstellt typisierte Kanten zwischen Knoten (relates_to, depends_on, implements, references, similar_to, contains). |
| Semantische Suche mit Graph-Traversierung — findet direkte Treffer und durchläuft dann Nachbarn 1./2. Grades. |
| Entfernt verfallene Kanten (e^(-λt) unter Schwellenwert) und verwaiste Knoten mit niedriger Zugriffszahl. |
| Fügt Knoten in großen Mengen mit automatischer Ähnlichkeitsverknüpfung hinzu (Kosinus ≥ 0,72 erstellt automatisch Kanten). |
| Startet bei einem Knoten und durchläuft nach außen — gibt alle erreichbaren Nachbarn zurück, bewertet nach Verfall und Tiefe. |
Ergänzender Server: pmll-memory-mcp (
npx pmll-memory-mcp) ist ein separater MCP-Server von @drQedwards, der den Langzeit-Memory-Graphen von Context+ adaptiert und Kurzzeit-KV-Kontextspeicher, Q-Promise-Deduplizierung und eine Lösungs-Engine hinzufügt. Siehe drQedwards/PPM für Details.
Einrichtung
Schnellstart (npx / bunx)
Keine Installation erforderlich. Fügen Sie Context+ zu Ihrer IDE-MCP-Konfiguration hinzu.
Für Claude Code, Cursor und Windsurf verwenden Sie mcpServers:
{
"mcpServers": {
"contextplus": {
"command": "bunx",
"args": ["contextplus"],
"env": {
"OLLAMA_EMBED_MODEL": "nomic-embed-text",
"OLLAMA_CHAT_MODEL": "gemma2:27b",
"OLLAMA_API_KEY": "YOUR_OLLAMA_API_KEY"
}
}
}
}Für VS Code (.vscode/mcp.json) verwenden Sie servers und inputs:
{
"servers": {
"contextplus": {
"type": "stdio",
"command": "bunx",
"args": ["contextplus"],
"env": {
"OLLAMA_EMBED_MODEL": "nomic-embed-text",
"OLLAMA_CHAT_MODEL": "gemma2:27b",
"OLLAMA_API_KEY": "YOUR_OLLAMA_API_KEY"
}
}
},
"inputs": []
}Wenn Sie npx bevorzugen, verwenden Sie:
"command": "npx""args": ["-y", "contextplus"]
Oder generieren Sie die MCP-Konfigurationsdatei direkt in Ihrem aktuellen Verzeichnis:
npx -y contextplus init claude
bunx contextplus init cursor
npx -y contextplus init opencodeUnterstützte Coding-Agent-Namen: claude, cursor, vscode, windsurf, opencode.
Speicherorte der Konfigurationsdateien:
IDE | Konfigurationsdatei |
Claude Code |
|
Cursor |
|
VS Code |
|
Windsurf |
|
OpenCode |
|
CLI-Unterbefehle
init [target]- Generiert MCP-Konfiguration (Ziele:claude,cursor,vscode,windsurf,opencode).skeleton [path]odertree [path]- (Neu) Zeigen Sie den strukturellen Baum eines Projekts mit Datei-Headern und Symboldefinitionen direkt in Ihrem Terminal an.[path]- Startet den MCP-Server (stdio) für den angegebenen Pfad (Standard ist das aktuelle Verzeichnis).
Aus dem Quellcode
npm install
npm run buildEmbedding-Anbieter
Context+ unterstützt zwei Embedding-Backends, die über CONTEXTPLUS_EMBED_PROVIDER gesteuert werden:
Anbieter | Wert | Erfordert | Am besten für |
Ollama (Standard) |
| Lokaler Ollama-Server | Kostenlos, offline, privat |
OpenAI-kompatibel |
| API-Schlüssel | Gemini (Free Tier), OpenAI, Groq, vLLM |
Ollama (Standard)
Keine zusätzliche Konfiguration erforderlich. Führen Sie einfach Ollama mit einem Embedding-Modell aus:
ollama pull nomic-embed-text
ollama serveGoogle Gemini (Free Tier)
Vollständiges Claude Code .mcp.json-Beispiel:
{
"mcpServers": {
"contextplus": {
"command": "npx",
"args": ["-y", "contextplus"],
"env": {
"CONTEXTPLUS_EMBED_PROVIDER": "openai",
"CONTEXTPLUS_OPENAI_API_KEY": "YOUR_GEMINI_API_KEY",
"CONTEXTPLUS_OPENAI_BASE_URL": "https://generativelanguage.googleapis.com/v1beta/openai",
"CONTEXTPLUS_OPENAI_EMBED_MODEL": "text-embedding-004"
}
}
}
}Holen Sie sich einen kostenlosen API-Schlüssel bei Google AI Studio.
OpenAI
{
"mcpServers": {
"contextplus": {
"command": "npx",
"args": ["-y", "contextplus"],
"env": {
"CONTEXTPLUS_EMBED_PROVIDER": "openai",
"OPENAI_API_KEY": "sk-...",
"OPENAI_EMBED_MODEL": "text-embedding-3-small"
}
}
}
}Andere OpenAI-kompatible APIs (Groq, vLLM, LiteLLM)
Jeder Endpunkt, der die OpenAI Embeddings API implementiert, funktioniert:
{
"mcpServers": {
"contextplus": {
"command": "npx",
"args": ["-y", "contextplus"],
"env": {
"CONTEXTPLUS_EMBED_PROVIDER": "openai",
"CONTEXTPLUS_OPENAI_API_KEY": "YOUR_KEY",
"CONTEXTPLUS_OPENAI_BASE_URL": "https://your-proxy.example.com/v1",
"CONTEXTPLUS_OPENAI_EMBED_MODEL": "your-model-name"
}
}
}
}Hinweis: Das Werkzeug
semantic_navigateverwendet auch ein Chat-Modell für die Cluster-Beschriftung. Wenn Sie denopenai-Anbieter verwenden, setzen SieCONTEXTPLUS_OPENAI_CHAT_MODEL(Standard:gpt-4o-mini).Verwenden Sie für VS Code, Cursor oder OpenCode denselben
env-Block innerhalb des MCP-Konfigurationsformats Ihrer IDE (siehe Tabelle Speicherorte der Konfigurationsdateien oben).
Architektur
Drei Schichten, die mit TypeScript über stdio unter Verwendung des Model Context Protocol SDK erstellt wurden:
Core (src/core/) - Mehrsprachiges AST-Parsing (tree-sitter, 43 Erweiterungen), gitignore-bewusste Traversierung, Ollama-Vektor-Embeddings mit Festplatten-Cache, Wikilink-Hub-Graph, In-Memory-Eigenschaftsgraph mit Verfallsbewertung.
Tools (src/tools/) - 17 MCP-Werkzeuge, die strukturelle, semantische, operative und Memory-Graph-Fähigkeiten bereitstellen.
Git (src/git/) - Schatten-Wiederherstellungspunktsystem für Rückgängigmachen, ohne die Git-Historie zu berühren.
Runtime Cache (.mcp_data/) - wird beim Serverstart erstellt; speichert wiederverwendbare Datei-, Bezeichner- und Aufrufstellen-Embeddings, um wiederholte GPU/CPU-Embedding-Arbeit zu vermeiden. Ein Echtzeit-Tracker aktualisiert geänderte Dateien/Funktionen inkrementell.
Konfiguration
Variable | Typ | Standard | Beschreibung |
| string |
| Embedding-Backend: |
| string |
| Ollama-Embedding-Modell |
| string | - | Ollama Cloud API-Schlüssel |
| string |
| Ollama-Chat-Modell für Cluster-Beschriftung |
| string | - | API-Schlüssel für OpenAI-kompatiblen Anbieter (Alias: |
| string |
| OpenAI-kompatible Endpunkt-URL (Alias: |
| string |
| OpenAI-kompatibles Embedding-Modell (Alias: |
| string |
| OpenAI-kompatibles Chat-Modell für Beschriftung (Alias: |
| string (als Zahl geparst) |
| Embedding-Batch-Größe pro GPU-Aufruf, begrenzt auf 5-10 |
| string (als Zahl geparst) |
| Zeichen pro Chunk vor Zusammenführung, begrenzt auf 256-8000 |
| string (als Zahl geparst) |
| Überspringt Nicht-Code-Textdateien, die größer als diese Anzahl von Bytes sind |
| string (als Zahl geparst) | - | Optionale Ollama-Embed-Runtime |
| string (als Zahl geparst) | - | Optionale Ollama-Embed-Runtime |
| string (als Zahl geparst) | - | Optionale Ollama-Embed-Runtime |
| string (als Zahl geparst) | - | Optionale Ollama-Embed-Runtime |
| string (als Zahl geparst) | - | Optionale Ollama-Embed-Runtime |
| string (als bool geparst) | - | Optionale Ollama-Embed-Runtime |
| string (als bool geparst) |
| Aktiviert Echtzeit-Embedding-Aktualisierung bei Dateiänderungen |
| string (als Zahl geparst) |
| Max. geänderte Dateien pro Tracker-Tick, begrenzt auf 5-10 |
| string (als Zahl geparst) |
| Debounce-Fenster vor Tracker-Aktualisierung |
Test
npm test
npm run test:demo
npm run test:allResources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/ForLoopCodes/contextplus'
If you have feedback or need assistance with the MCP directory API, please join our Discord server