LLM Wiki Kit
📚 llm-wiki-kit
Ein MCP-Server, der Karpathys LLM-Wiki-Muster implementiert – persistente, vom LLM gepflegte Wissensdatenbanken, die mit der Zeit wachsen.
Anstatt RAG (Wissen bei jeder Abfrage von Grund auf neu zu entdecken), erstellt und pflegt das LLM schrittweise ein strukturiertes Wiki mit verlinkten Markdown-Dateien, Querverweisen, Zusammenfassungen und Synthesen, die mit jeder hinzugefügten Quelle gehaltvoller werden.
Warum?
Der mühsame Teil bei der Pflege einer Wissensdatenbank ist nicht das Lesen oder Nachdenken, sondern die Buchhaltung. Querverweise aktualisieren, Zusammenfassungen aktuell halten, Widersprüche notieren, Konsistenz wahren. LLMs sind perfekt dafür geeignet. Sie kuratieren und leiten an. Das LLM erledigt den Rest.
Beispiel-Anwendungsfall: Die Forschungsschleife
Stellen Sie sich vor, Sie recherchieren zu einer neuen und komplexen Technologie wie LLM Speculative Decoding. Anstatt 10 Paper zu lesen und sich manuell Notizen zu machen, verwenden Sie llm-wiki-kit, damit Ihr Agent im Laufe der Zeit eine Zustandsübersicht erstellt.
Der Arbeitsablauf
Mensch: legt 3 PDFs in
raw/abMensch: "Analysiere diese Paper und aktualisiere die Wissensdatenbank. Achte besonders auf KV-Cache-Optimierungen."
Agent (via MCP):
Ruft
wiki_ingestfür jedes Paper aufRuft
wiki_write_pageauf, umconcepts/speculative_decoding.mdzu erstellenRuft
wiki_write_pageauf, umsynthesis/cache_strategies.mdzu aktualisieren und es mit den Papern zu verlinkenRuft
wiki_lintauf, um sicherzustellen, dass das neue Konzept "Draft Model" mit bestehenden "Inference"-Seiten querverlinkt ist
Das Ergebnis
Zwei Wochen später starten Sie eine neue Chat-Sitzung in Cursor oder Claude Code. Sie müssen die Paper nicht erneut hochladen oder erklären, was Sie gelernt haben. Sie fragen:
"Welche Draft-Model-Architektur ist basierend auf unserer bisherigen Forschung am effizientesten für Llama 3?"
Ihr Agent ruft wiki_search auf, liest die Synthese-Seiten, die er zuvor geschrieben hat, und antwortet basierend auf den gesammelten Beweisen:
"Basierend auf den zusammengetragenen Beweisen in Ihrer Wissensdatenbank ist die Eagle-Architektur derzeit führend, weil..."
Schnellstart
Installation
Erfordert Python 3.10+.
# With uv (recommended)
uv pip install git+https://github.com/iamsashank09/llm-wiki-kit.git
# With pip
pip install git+https://github.com/iamsashank09/llm-wiki-kit.gitHinweis: Die Veröffentlichung auf PyPI folgt in Kürze. Installieren Sie es vorerst direkt von GitHub.
Ein Wiki initialisieren
mkdir my-research && cd my-research
llm-wiki-kit init --agent claudeDies erstellt:
my-research/
├── raw/ ← Drop source files here (immutable)
├── wiki/ ← LLM-maintained wiki pages
│ ├── index.md ← Master index
│ └── log.md ← Chronological operation log
└── WIKI.md ← Schema file for your LLM agentMit Ihrem LLM-Agenten verbinden
Claude Desktop / Claude Code
Fügen Sie dies zu Ihrer MCP-Konfiguration (claude_desktop_config.json) hinzu:
{
"mcpServers": {
"llm-wiki-kit": {
"command": "llm-wiki-kit",
"args": ["serve", "--root", "/path/to/my-research"],
"env": {}
}
}
}OpenAI Codex
Fügen Sie den Server hinzu mit:
codex mcp add llm-wiki-kit -- llm-wiki-kit serve --root /path/to/my-researchOder fügen Sie ihn manuell zu ~/.codex/config.toml hinzu:
[mcp_servers.llm-wiki-kit]
command = "llm-wiki-kit"
args = ["serve", "--root", "/path/to/my-research"]Cursor
Fügen Sie dies zu .cursor/mcp.json hinzu:
{
"mcpServers": {
"llm-wiki-kit": {
"command": "llm-wiki-kit",
"args": ["serve", "--root", "/path/to/my-research"]
}
}
}Windsurf
Fügen Sie dies zu ~/.codeium/windsurf/mcp_config.json hinzu:
{
"mcpServers": {
"llm-wiki-kit": {
"command": "llm-wiki-kit",
"args": ["serve", "--root", "/path/to/my-research"]
}
}
}Jeder MCP-kompatible Agent
llm-wiki-kit serve --root /path/to/my-researchDer Server verwendet den stdio-Transport und ist mit jedem MCP-Client kompatibel.
Verwendung
Sobald die Verbindung hergestellt ist, verfügt Ihr LLM-Agent über diese Tools:
Tool | Beschreibung |
| Initialisiert ein neues Wiki |
| Verarbeitet ein Quelldokument |
| Erstellt/aktualisiert eine Wiki-Seite |
| Liest eine Wiki-Seite |
| Volltextsuche (FTS5) |
| Gesundheitsprüfung auf Probleme |
| Übersicht über den Wiki-Status |
| An den Betriebsprotokoll anhängen |
Beispiel-Arbeitsablauf:
Legen Sie einen Artikel in
raw/abSagen Sie Ihrem Agenten: "Ingest raw/article.md"
Der Agent liest ihn, erstellt Wiki-Seiten, verlinkt verwandte Konzepte und aktualisiert den Index
Stellen Sie Fragen: "Wie verhält sich X zu Y?" und der Agent durchsucht das Wiki und synthetisiert die Antwort
Regelmäßig: "Run a lint pass", um defekte Links, verwaiste Seiten und Widersprüche zu finden
Architektur
Drei Ebenen, gemäß Karpathys Design:
┌─────────────────────────────────────────────┐
│ You (the human) │
│ Source, direct, ask questions, think │
└──────────────────┬──────────────────────────┘
│
┌──────────────────▼──────────────────────────┐
│ Wiki (wiki/) │
│ LLM-maintained markdown files │
│ Summaries, entities, concepts, synthesis │
│ Cross-referenced with [[wiki links]] │
└──────────────────┬──────────────────────────┘
│
┌──────────────────▼──────────────────────────┐
│ Raw Sources (raw/) │
│ Articles, papers, notes (immutable) │
└─────────────────────────────────────────────┘Suche
Wiki-Seiten werden mit SQLite FTS5 und Porter-Stemming indiziert, ohne externe Abhängigkeiten und mit sofortiger Einrichtung. Die Suche unterstützt:
Einfache Abfragen:
"attention mechanism"Boolesche Operatoren:
transformer AND attentionNegation:
transformer NOT GPTPräfix:
trans*
Lint
Das Lint-Tool prüft auf:
Defekte Links:
[[Page Name]]-Referenzen auf Seiten, die nicht existierenVerwaiste Seiten: Seiten ohne eingehende Links
Leere Seiten: Seiten, die nur einen Titel oder keinen Inhalt haben
Anwendungsfälle
Technisches Onboarding: Dokumentation einer gesamten Codebasis in ein Wiki aufnehmen, damit ein Agent schnell Architekturfragen beantworten kann
Projektstatus: Ein Projekt-Wiki pflegen, in dem der Agent aktuelle Fehler, Architektur-Entscheidungen und TODOs über mehrere Chat-Sitzungen hinweg verfolgt
Wettbewerbsanalyse: Marktberichte an den Agenten füttern und ihn ein lebendiges Landschafts-Wiki pflegen lassen, das sich mit neuen Daten aktualisiert
Tipps
Transparenz und Prüfung: Da das Wiki nur ein Ordner mit Markdown-Dateien ist, können Sie jeden Viewer wie VS Code, Zed oder Obsidian auf das Verzeichnis richten, um die Arbeit des Agenten zu prüfen oder seinen internen Wissensgraphen zu visualisieren. Es ist keine GUI erforderlich, damit der Agent funktioniert
Das Wiki besteht nur aus Markdown-Dateien in einem Git-Repo, daher sind Versionsverlauf und Zusammenarbeit kostenlos enthalten
Fangen Sie klein an. Schon 5-10 Quellen erzeugen ein überraschend nützliches Wiki
Lassen Sie das LLM aggressiv Querverweise erstellen, da der Wert in den Verbindungen liegt
Entwicklung
git clone https://github.com/iamsashank09/llm-wiki-kit
cd llm-wiki-kit
uv venv && source .venv/bin/activate
uv pip install -e .Credits
Basierend auf der LLM Wiki-Idee von Andrej Karpathy.
Lizenz
MIT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/iamsashank09/llm-wiki-kit'
If you have feedback or need assistance with the MCP directory API, please join our Discord server