Skip to main content
Glama
iamsashank09

LLM Wiki Kit

by iamsashank09

📚 llm-wiki-kit

Ein MCP-Server, der Karpathys LLM-Wiki-Muster implementiert – persistente, vom LLM gepflegte Wissensdatenbanken, die mit der Zeit wachsen.

Anstatt RAG (Wissen bei jeder Abfrage von Grund auf neu zu entdecken), erstellt und pflegt das LLM schrittweise ein strukturiertes Wiki mit verlinkten Markdown-Dateien, Querverweisen, Zusammenfassungen und Synthesen, die mit jeder hinzugefügten Quelle gehaltvoller werden.

Warum?

Der mühsame Teil bei der Pflege einer Wissensdatenbank ist nicht das Lesen oder Nachdenken, sondern die Buchhaltung. Querverweise aktualisieren, Zusammenfassungen aktuell halten, Widersprüche notieren, Konsistenz wahren. LLMs sind perfekt dafür geeignet. Sie kuratieren und leiten an. Das LLM erledigt den Rest.

Beispiel-Anwendungsfall: Die Forschungsschleife

Stellen Sie sich vor, Sie recherchieren zu einer neuen und komplexen Technologie wie LLM Speculative Decoding. Anstatt 10 Paper zu lesen und sich manuell Notizen zu machen, verwenden Sie llm-wiki-kit, damit Ihr Agent im Laufe der Zeit eine Zustandsübersicht erstellt.

Der Arbeitsablauf

  1. Mensch: legt 3 PDFs in raw/ ab

  2. Mensch: "Analysiere diese Paper und aktualisiere die Wissensdatenbank. Achte besonders auf KV-Cache-Optimierungen."

  3. Agent (via MCP):

    • Ruft wiki_ingest für jedes Paper auf

    • Ruft wiki_write_page auf, um concepts/speculative_decoding.md zu erstellen

    • Ruft wiki_write_page auf, um synthesis/cache_strategies.md zu aktualisieren und es mit den Papern zu verlinken

    • Ruft wiki_lint auf, um sicherzustellen, dass das neue Konzept "Draft Model" mit bestehenden "Inference"-Seiten querverlinkt ist

Das Ergebnis

Zwei Wochen später starten Sie eine neue Chat-Sitzung in Cursor oder Claude Code. Sie müssen die Paper nicht erneut hochladen oder erklären, was Sie gelernt haben. Sie fragen:

"Welche Draft-Model-Architektur ist basierend auf unserer bisherigen Forschung am effizientesten für Llama 3?"

Ihr Agent ruft wiki_search auf, liest die Synthese-Seiten, die er zuvor geschrieben hat, und antwortet basierend auf den gesammelten Beweisen:

"Basierend auf den zusammengetragenen Beweisen in Ihrer Wissensdatenbank ist die Eagle-Architektur derzeit führend, weil..."

Schnellstart

Installation

Erfordert Python 3.10+.

# With uv (recommended)
uv pip install git+https://github.com/iamsashank09/llm-wiki-kit.git

# With pip
pip install git+https://github.com/iamsashank09/llm-wiki-kit.git

Hinweis: Die Veröffentlichung auf PyPI folgt in Kürze. Installieren Sie es vorerst direkt von GitHub.

Ein Wiki initialisieren

mkdir my-research && cd my-research
llm-wiki-kit init --agent claude

Dies erstellt:

my-research/
├── raw/          ← Drop source files here (immutable)
├── wiki/         ← LLM-maintained wiki pages
│   ├── index.md  ← Master index
│   └── log.md    ← Chronological operation log
└── WIKI.md       ← Schema file for your LLM agent

Mit Ihrem LLM-Agenten verbinden

Claude Desktop / Claude Code

Fügen Sie dies zu Ihrer MCP-Konfiguration (claude_desktop_config.json) hinzu:

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"],
      "env": {}
    }
  }
}

OpenAI Codex

Fügen Sie den Server hinzu mit:

codex mcp add llm-wiki-kit -- llm-wiki-kit serve --root /path/to/my-research

Oder fügen Sie ihn manuell zu ~/.codex/config.toml hinzu:

[mcp_servers.llm-wiki-kit]
command = "llm-wiki-kit"
args = ["serve", "--root", "/path/to/my-research"]

Cursor

Fügen Sie dies zu .cursor/mcp.json hinzu:

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"]
    }
  }
}

Windsurf

Fügen Sie dies zu ~/.codeium/windsurf/mcp_config.json hinzu:

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"]
    }
  }
}

Jeder MCP-kompatible Agent

llm-wiki-kit serve --root /path/to/my-research

Der Server verwendet den stdio-Transport und ist mit jedem MCP-Client kompatibel.

Verwendung

Sobald die Verbindung hergestellt ist, verfügt Ihr LLM-Agent über diese Tools:

Tool

Beschreibung

wiki_init

Initialisiert ein neues Wiki

wiki_ingest

Verarbeitet ein Quelldokument

wiki_write_page

Erstellt/aktualisiert eine Wiki-Seite

wiki_read_page

Liest eine Wiki-Seite

wiki_search

Volltextsuche (FTS5)

wiki_lint

Gesundheitsprüfung auf Probleme

wiki_status

Übersicht über den Wiki-Status

wiki_log

An den Betriebsprotokoll anhängen

Beispiel-Arbeitsablauf:

  1. Legen Sie einen Artikel in raw/ ab

  2. Sagen Sie Ihrem Agenten: "Ingest raw/article.md"

  3. Der Agent liest ihn, erstellt Wiki-Seiten, verlinkt verwandte Konzepte und aktualisiert den Index

  4. Stellen Sie Fragen: "Wie verhält sich X zu Y?" und der Agent durchsucht das Wiki und synthetisiert die Antwort

  5. Regelmäßig: "Run a lint pass", um defekte Links, verwaiste Seiten und Widersprüche zu finden

Architektur

Drei Ebenen, gemäß Karpathys Design:

┌─────────────────────────────────────────────┐
│  You (the human)                            │
│  Source, direct, ask questions, think        │
└──────────────────┬──────────────────────────┘
                   │
┌──────────────────▼──────────────────────────┐
│  Wiki (wiki/)                               │
│  LLM-maintained markdown files              │
│  Summaries, entities, concepts, synthesis   │
│  Cross-referenced with [[wiki links]]       │
└──────────────────┬──────────────────────────┘
                   │
┌──────────────────▼──────────────────────────┐
│  Raw Sources (raw/)                         │
│  Articles, papers, notes (immutable)        │
└─────────────────────────────────────────────┘

Suche

Wiki-Seiten werden mit SQLite FTS5 und Porter-Stemming indiziert, ohne externe Abhängigkeiten und mit sofortiger Einrichtung. Die Suche unterstützt:

  • Einfache Abfragen: "attention mechanism"

  • Boolesche Operatoren: transformer AND attention

  • Negation: transformer NOT GPT

  • Präfix: trans*

Lint

Das Lint-Tool prüft auf:

  • Defekte Links: [[Page Name]]-Referenzen auf Seiten, die nicht existieren

  • Verwaiste Seiten: Seiten ohne eingehende Links

  • Leere Seiten: Seiten, die nur einen Titel oder keinen Inhalt haben

Anwendungsfälle

  • Technisches Onboarding: Dokumentation einer gesamten Codebasis in ein Wiki aufnehmen, damit ein Agent schnell Architekturfragen beantworten kann

  • Projektstatus: Ein Projekt-Wiki pflegen, in dem der Agent aktuelle Fehler, Architektur-Entscheidungen und TODOs über mehrere Chat-Sitzungen hinweg verfolgt

  • Wettbewerbsanalyse: Marktberichte an den Agenten füttern und ihn ein lebendiges Landschafts-Wiki pflegen lassen, das sich mit neuen Daten aktualisiert

Tipps

  • Transparenz und Prüfung: Da das Wiki nur ein Ordner mit Markdown-Dateien ist, können Sie jeden Viewer wie VS Code, Zed oder Obsidian auf das Verzeichnis richten, um die Arbeit des Agenten zu prüfen oder seinen internen Wissensgraphen zu visualisieren. Es ist keine GUI erforderlich, damit der Agent funktioniert

  • Das Wiki besteht nur aus Markdown-Dateien in einem Git-Repo, daher sind Versionsverlauf und Zusammenarbeit kostenlos enthalten

  • Fangen Sie klein an. Schon 5-10 Quellen erzeugen ein überraschend nützliches Wiki

  • Lassen Sie das LLM aggressiv Querverweise erstellen, da der Wert in den Verbindungen liegt

Entwicklung

git clone https://github.com/iamsashank09/llm-wiki-kit
cd llm-wiki-kit
uv venv && source .venv/bin/activate
uv pip install -e .

Credits

Basierend auf der LLM Wiki-Idee von Andrej Karpathy.

Lizenz

MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/iamsashank09/llm-wiki-kit'

If you have feedback or need assistance with the MCP directory API, please join our Discord server