Skip to main content
Glama

Context+

Semantische Intelligenz für Large-Scale Engineering.

Context+ ist ein MCP-Server für Entwickler, die 99% Genauigkeit verlangen. Durch die Kombination von RAG, Tree-sitter AST, Spektral-Clustering und Obsidian-artiger Verlinkung verwandelt Context+ eine riesige Codebasis in einen durchsuchbaren, hierarchischen Feature-Graphen.

Wenn Sie schon hier sind, schauen Sie sich mein anderes Projekt Airena an. Stellen Sie ein Team von KI-Agenten zusammen und treten Sie im direkten Vergleich gegen andere Orchestratoren an. Der erste Platz auf der Bestenliste erhält einen Preis von 1600 $!

https://github.com/user-attachments/assets/a97a451f-c9b4-468d-b036-15b65fc13e79

Werkzeuge

Erkundung

Werkzeug

Beschreibung

get_context_tree

Struktureller AST-Baum eines Projekts mit Datei-Headern und Symbolbereichen (Zeilennummern für Funktionen/Klassen/Methoden). Dynamisches Pruning verkleinert die Ausgabe automatisch.

get_file_skeleton

Funktionssignaturen, Klassenmethoden und Typdefinitionen mit Zeilenbereichen, ohne die vollständigen Körper zu lesen. Zeigt die API-Oberfläche.

semantic_code_search

Suche nach Bedeutung, nicht nach exaktem Text. Verwendet Embeddings über Datei-Header/Symbole und gibt die passenden Symboldefinitionszeilen zurück.

semantic_identifier_search

Semantische Suche auf Bezeichner-Ebene für Funktionen/Klassen/Variablen mit gerankten Aufrufstellen und Zeilennummern.

semantic_navigate

Durchsuchen der Codebasis nach Bedeutung mittels Spektral-Clustering. Gruppiert semantisch verwandte Dateien in beschriftete Cluster.

Analyse

Werkzeug

Beschreibung

get_blast_radius

Verfolgt jede Datei und Zeile, in der ein Symbol importiert oder verwendet wird. Verhindert verwaiste Referenzen.

run_static_analysis

Führt native Linter und Compiler aus, um ungenutzte Variablen, toten Code und Typfehler zu finden. Unterstützt TypeScript, Python, Rust, Go.

Code Ops

Werkzeug

Beschreibung

propose_commit

Der einzige Weg, Code zu schreiben. Validiert gegen strenge Regeln vor dem Speichern. Erstellt einen Schatten-Wiederherstellungspunkt vor dem Schreiben.

get_feature_hub

Obsidian-artiger Feature-Hub-Navigator. Hubs sind .md-Dateien mit [[wikilinks]], die Features auf Codedateien abbilden.

Versionskontrolle

Werkzeug

Beschreibung

list_restore_points

Listet alle Schatten-Wiederherstellungspunkte auf, die von propose_commit erstellt wurden. Jeder erfasst den Dateizustand vor KI-Änderungen.

undo_change

Stellt Dateien auf ihren Zustand vor einer bestimmten KI-Änderung wieder her. Verwendet Schatten-Wiederherstellungspunkte. Beeinflusst nicht git.

Speicher & RAG

Werkzeug

Beschreibung

upsert_memory_node

Erstellt oder aktualisiert einen Speicherknoten (Konzept, Datei, Symbol, Notiz) mit automatisch generierten Embeddings.

create_relation

Erstellt typisierte Kanten zwischen Knoten (relates_to, depends_on, implements, references, similar_to, contains).

search_memory_graph

Semantische Suche mit Graph-Traversierung — findet direkte Treffer und durchläuft dann Nachbarn 1./2. Grades.

prune_stale_links

Entfernt verfallene Kanten (e^(-λt) unter Schwellenwert) und verwaiste Knoten mit niedriger Zugriffszahl.

add_interlinked_context

Fügt Knoten in großen Mengen mit automatischer Ähnlichkeitsverknüpfung hinzu (Kosinus ≥ 0,72 erstellt automatisch Kanten).

retrieve_with_traversal

Startet bei einem Knoten und durchläuft nach außen — gibt alle erreichbaren Nachbarn zurück, bewertet nach Verfall und Tiefe.

Ergänzender Server: pmll-memory-mcp (npx pmll-memory-mcp) ist ein separater MCP-Server von @drQedwards, der den Langzeit-Memory-Graphen von Context+ adaptiert und Kurzzeit-KV-Kontextspeicher, Q-Promise-Deduplizierung und eine Lösungs-Engine hinzufügt. Siehe drQedwards/PPM für Details.

Einrichtung

Schnellstart (npx / bunx)

Keine Installation erforderlich. Fügen Sie Context+ zu Ihrer IDE-MCP-Konfiguration hinzu.

Für Claude Code, Cursor und Windsurf verwenden Sie mcpServers:

{
  "mcpServers": {
    "contextplus": {
      "command": "bunx",
      "args": ["contextplus"],
      "env": {
        "OLLAMA_EMBED_MODEL": "nomic-embed-text",
        "OLLAMA_CHAT_MODEL": "gemma2:27b",
        "OLLAMA_API_KEY": "YOUR_OLLAMA_API_KEY"
      }
    }
  }
}

Für VS Code (.vscode/mcp.json) verwenden Sie servers und inputs:

{
  "servers": {
    "contextplus": {
      "type": "stdio",
      "command": "bunx",
      "args": ["contextplus"],
      "env": {
        "OLLAMA_EMBED_MODEL": "nomic-embed-text",
        "OLLAMA_CHAT_MODEL": "gemma2:27b",
        "OLLAMA_API_KEY": "YOUR_OLLAMA_API_KEY"
      }
    }
  },
  "inputs": []
}

Wenn Sie npx bevorzugen, verwenden Sie:

  • "command": "npx"

  • "args": ["-y", "contextplus"]

Oder generieren Sie die MCP-Konfigurationsdatei direkt in Ihrem aktuellen Verzeichnis:

npx -y contextplus init claude
bunx contextplus init cursor
npx -y contextplus init opencode

Unterstützte Coding-Agent-Namen: claude, cursor, vscode, windsurf, opencode.

Speicherorte der Konfigurationsdateien:

IDE

Konfigurationsdatei

Claude Code

.mcp.json

Cursor

.cursor/mcp.json

VS Code

.vscode/mcp.json

Windsurf

.windsurf/mcp.json

OpenCode

opencode.json

CLI-Unterbefehle

  • init [target] - Generiert MCP-Konfiguration (Ziele: claude, cursor, vscode, windsurf, opencode).

  • skeleton [path] oder tree [path] - (Neu) Zeigen Sie den strukturellen Baum eines Projekts mit Datei-Headern und Symboldefinitionen direkt in Ihrem Terminal an.

  • [path] - Startet den MCP-Server (stdio) für den angegebenen Pfad (Standard ist das aktuelle Verzeichnis).

Aus dem Quellcode

npm install
npm run build

Embedding-Anbieter

Context+ unterstützt zwei Embedding-Backends, die über CONTEXTPLUS_EMBED_PROVIDER gesteuert werden:

Anbieter

Wert

Erfordert

Am besten für

Ollama (Standard)

ollama

Lokaler Ollama-Server

Kostenlos, offline, privat

OpenAI-kompatibel

openai

API-Schlüssel

Gemini (Free Tier), OpenAI, Groq, vLLM

Ollama (Standard)

Keine zusätzliche Konfiguration erforderlich. Führen Sie einfach Ollama mit einem Embedding-Modell aus:

ollama pull nomic-embed-text
ollama serve

Google Gemini (Free Tier)

Vollständiges Claude Code .mcp.json-Beispiel:

{
  "mcpServers": {
    "contextplus": {
      "command": "npx",
      "args": ["-y", "contextplus"],
      "env": {
        "CONTEXTPLUS_EMBED_PROVIDER": "openai",
        "CONTEXTPLUS_OPENAI_API_KEY": "YOUR_GEMINI_API_KEY",
        "CONTEXTPLUS_OPENAI_BASE_URL": "https://generativelanguage.googleapis.com/v1beta/openai",
        "CONTEXTPLUS_OPENAI_EMBED_MODEL": "text-embedding-004"
      }
    }
  }
}

Holen Sie sich einen kostenlosen API-Schlüssel bei Google AI Studio.

OpenAI

{
  "mcpServers": {
    "contextplus": {
      "command": "npx",
      "args": ["-y", "contextplus"],
      "env": {
        "CONTEXTPLUS_EMBED_PROVIDER": "openai",
        "OPENAI_API_KEY": "sk-...",
        "OPENAI_EMBED_MODEL": "text-embedding-3-small"
      }
    }
  }
}

Andere OpenAI-kompatible APIs (Groq, vLLM, LiteLLM)

Jeder Endpunkt, der die OpenAI Embeddings API implementiert, funktioniert:

{
  "mcpServers": {
    "contextplus": {
      "command": "npx",
      "args": ["-y", "contextplus"],
      "env": {
        "CONTEXTPLUS_EMBED_PROVIDER": "openai",
        "CONTEXTPLUS_OPENAI_API_KEY": "YOUR_KEY",
        "CONTEXTPLUS_OPENAI_BASE_URL": "https://your-proxy.example.com/v1",
        "CONTEXTPLUS_OPENAI_EMBED_MODEL": "your-model-name"
      }
    }
  }
}

Hinweis: Das Werkzeug semantic_navigate verwendet auch ein Chat-Modell für die Cluster-Beschriftung. Wenn Sie den openai-Anbieter verwenden, setzen Sie CONTEXTPLUS_OPENAI_CHAT_MODEL (Standard: gpt-4o-mini).

Verwenden Sie für VS Code, Cursor oder OpenCode denselben env-Block innerhalb des MCP-Konfigurationsformats Ihrer IDE (siehe Tabelle Speicherorte der Konfigurationsdateien oben).

Architektur

Drei Schichten, die mit TypeScript über stdio unter Verwendung des Model Context Protocol SDK erstellt wurden:

Core (src/core/) - Mehrsprachiges AST-Parsing (tree-sitter, 43 Erweiterungen), gitignore-bewusste Traversierung, Ollama-Vektor-Embeddings mit Festplatten-Cache, Wikilink-Hub-Graph, In-Memory-Eigenschaftsgraph mit Verfallsbewertung.

Tools (src/tools/) - 17 MCP-Werkzeuge, die strukturelle, semantische, operative und Memory-Graph-Fähigkeiten bereitstellen.

Git (src/git/) - Schatten-Wiederherstellungspunktsystem für Rückgängigmachen, ohne die Git-Historie zu berühren.

Runtime Cache (.mcp_data/) - wird beim Serverstart erstellt; speichert wiederverwendbare Datei-, Bezeichner- und Aufrufstellen-Embeddings, um wiederholte GPU/CPU-Embedding-Arbeit zu vermeiden. Ein Echtzeit-Tracker aktualisiert geänderte Dateien/Funktionen inkrementell.

Konfiguration

Variable

Typ

Standard

Beschreibung

CONTEXTPLUS_EMBED_PROVIDER

string

ollama

Embedding-Backend: ollama oder openai

OLLAMA_EMBED_MODEL

string

nomic-embed-text

Ollama-Embedding-Modell

OLLAMA_API_KEY

string

-

Ollama Cloud API-Schlüssel

OLLAMA_CHAT_MODEL

string

llama3.2

Ollama-Chat-Modell für Cluster-Beschriftung

CONTEXTPLUS_OPENAI_API_KEY

string

-

API-Schlüssel für OpenAI-kompatiblen Anbieter (Alias: OPENAI_API_KEY)

CONTEXTPLUS_OPENAI_BASE_URL

string

https://api.openai.com/v1

OpenAI-kompatible Endpunkt-URL (Alias: OPENAI_BASE_URL)

CONTEXTPLUS_OPENAI_EMBED_MODEL

string

text-embedding-3-small

OpenAI-kompatibles Embedding-Modell (Alias: OPENAI_EMBED_MODEL)

CONTEXTPLUS_OPENAI_CHAT_MODEL

string

gpt-4o-mini

OpenAI-kompatibles Chat-Modell für Beschriftung (Alias: OPENAI_CHAT_MODEL)

CONTEXTPLUS_EMBED_BATCH_SIZE

string (als Zahl geparst)

8

Embedding-Batch-Größe pro GPU-Aufruf, begrenzt auf 5-10

CONTEXTPLUS_EMBED_CHUNK_CHARS

string (als Zahl geparst)

2000

Zeichen pro Chunk vor Zusammenführung, begrenzt auf 256-8000

CONTEXTPLUS_MAX_EMBED_FILE_SIZE

string (als Zahl geparst)

51200

Überspringt Nicht-Code-Textdateien, die größer als diese Anzahl von Bytes sind

CONTEXTPLUS_EMBED_NUM_GPU

string (als Zahl geparst)

-

Optionale Ollama-Embed-Runtime num_gpu-Überschreibung

CONTEXTPLUS_EMBED_MAIN_GPU

string (als Zahl geparst)

-

Optionale Ollama-Embed-Runtime main_gpu-Überschreibung

CONTEXTPLUS_EMBED_NUM_THREAD

string (als Zahl geparst)

-

Optionale Ollama-Embed-Runtime num_thread-Überschreibung

CONTEXTPLUS_EMBED_NUM_BATCH

string (als Zahl geparst)

-

Optionale Ollama-Embed-Runtime num_batch-Überschreibung

CONTEXTPLUS_EMBED_NUM_CTX

string (als Zahl geparst)

-

Optionale Ollama-Embed-Runtime num_ctx-Überschreibung

CONTEXTPLUS_EMBED_LOW_VRAM

string (als bool geparst)

-

Optionale Ollama-Embed-Runtime low_vram-Überschreibung

CONTEXTPLUS_EMBED_TRACKER

string (als bool geparst)

true

Aktiviert Echtzeit-Embedding-Aktualisierung bei Dateiänderungen

CONTEXTPLUS_EMBED_TRACKER_MAX_FILES

string (als Zahl geparst)

8

Max. geänderte Dateien pro Tracker-Tick, begrenzt auf 5-10

CONTEXTPLUS_EMBED_TRACKER_DEBOUNCE_MS

string (als Zahl geparst)

700

Debounce-Fenster vor Tracker-Aktualisierung

Test

npm test
npm run test:demo
npm run test:all
Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ForLoopCodes/contextplus'

If you have feedback or need assistance with the MCP directory API, please join our Discord server