Skip to main content
Glama
iamsashank09

LLM Wiki Kit

by iamsashank09

📚 llm-wiki-kit

Un servidor MCP que implementa el patrón LLM Wiki de Karpathy: bases de conocimiento persistentes y mantenidas por LLM que se acumulan con el tiempo.

En lugar de RAG (redescubrir conocimiento desde cero en cada consulta), el LLM construye y mantiene incrementalmente una wiki estructurada con archivos markdown interconectados, referencias cruzadas, resúmenes y síntesis que se enriquecen con cada fuente que añades.

¿Por qué?

La parte tediosa de mantener una base de conocimiento no es leer o pensar, es la gestión. Actualizar referencias cruzadas, mantener los resúmenes al día, anotar contradicciones, mantener la coherencia. Los LLM son perfectos para esto. Tú diriges y supervisas. El LLM hace todo lo demás.

Ejemplo de caso de uso: El bucle de investigación

Imagina que estás investigando una tecnología nueva y compleja como la decodificación especulativa de LLM. En lugar de leer 10 artículos y tomar notas manualmente, usas llm-wiki-kit para permitir que tu agente construya un mapa de estado con el tiempo.

El flujo de trabajo

  1. Humano: coloca 3 PDF en raw/

  2. Humano: "Analiza estos artículos y actualiza la KB. Presta especial atención a las optimizaciones de la caché KV."

  3. Agente (vía MCP):

    • Llama a wiki_ingest para cada artículo

    • Llama a wiki_write_page para crear concepts/speculative_decoding.md

    • Llama a wiki_write_page para actualizar synthesis/cache_strategies.md y vincularlo a los artículos

    • Llama a wiki_lint para asegurar que el nuevo concepto de "Modelo de borrador" esté referenciado con las páginas de "Inferencia" existentes

El resultado

Dos semanas después, inicias una nueva sesión de chat en Cursor o Claude Code. No necesitas volver a subir los artículos ni volver a explicar lo que aprendiste. Preguntas:

"Basado en nuestra investigación hasta ahora, ¿qué arquitectura de modelo de borrador es más eficiente para Llama 3?"

Tu agente llama a wiki_search, lee las páginas de síntesis que escribió anteriormente y responde a partir de la evidencia acumulada:

"Basado en la evidencia compilada en tu KB, la arquitectura Eagle es actualmente la líder porque..."

Inicio rápido

Instalación

Requiere Python 3.10+.

# With uv (recommended)
uv pip install git+https://github.com/iamsashank09/llm-wiki-kit.git

# With pip
pip install git+https://github.com/iamsashank09/llm-wiki-kit.git

Nota: La publicación en PyPI llegará pronto. Por ahora, instálalo directamente desde GitHub.

Inicializar una wiki

mkdir my-research && cd my-research
llm-wiki-kit init --agent claude

Esto crea:

my-research/
├── raw/          ← Drop source files here (immutable)
├── wiki/         ← LLM-maintained wiki pages
│   ├── index.md  ← Master index
│   └── log.md    ← Chronological operation log
└── WIKI.md       ← Schema file for your LLM agent

Conectar a tu agente LLM

Claude Desktop / Claude Code

Añade a tu configuración de MCP (claude_desktop_config.json):

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"],
      "env": {}
    }
  }
}

OpenAI Codex

Añade el servidor con:

codex mcp add llm-wiki-kit -- llm-wiki-kit serve --root /path/to/my-research

O añádelo manualmente a ~/.codex/config.toml:

[mcp_servers.llm-wiki-kit]
command = "llm-wiki-kit"
args = ["serve", "--root", "/path/to/my-research"]

Cursor

Añade a .cursor/mcp.json:

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"]
    }
  }
}

Windsurf

Añade a ~/.codeium/windsurf/mcp_config.json:

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"]
    }
  }
}

Cualquier agente compatible con MCP

llm-wiki-kit serve --root /path/to/my-research

El servidor utiliza transporte stdio y es compatible con cualquier cliente MCP.

Uso

Una vez conectado, tu agente LLM tiene estas herramientas:

Herramienta

Descripción

wiki_init

Inicializar una nueva wiki

wiki_ingest

Procesar un documento fuente

wiki_write_page

Crear/actualizar una página de la wiki

wiki_read_page

Leer una página de la wiki

wiki_search

Búsqueda de texto completo (FTS5)

wiki_lint

Verificación de salud para problemas

wiki_status

Resumen del estado de la wiki

wiki_log

Añadir al registro de operaciones

Flujo de trabajo de ejemplo:

  1. Coloca un artículo en raw/

  2. Dile a tu agente: "Ingest raw/article.md"

  3. El agente lo lee, crea páginas de wiki, hace referencias cruzadas de conceptos relacionados, actualiza el índice

  4. Haz preguntas: "¿Cómo se relaciona X con Y?" y el agente busca en la wiki y sintetiza

  5. Periódicamente: "Run a lint pass" para detectar enlaces rotos, páginas huérfanas y contradicciones

Arquitectura

Tres capas, según el diseño de Karpathy:

┌─────────────────────────────────────────────┐
│  You (the human)                            │
│  Source, direct, ask questions, think        │
└──────────────────┬──────────────────────────┘
                   │
┌──────────────────▼──────────────────────────┐
│  Wiki (wiki/)                               │
│  LLM-maintained markdown files              │
│  Summaries, entities, concepts, synthesis   │
│  Cross-referenced with [[wiki links]]       │
└──────────────────┬──────────────────────────┘
                   │
┌──────────────────▼──────────────────────────┐
│  Raw Sources (raw/)                         │
│  Articles, papers, notes (immutable)        │
└─────────────────────────────────────────────┘

Búsqueda

Las páginas de la wiki se indexan utilizando SQLite FTS5 con stemming de Porter, sin dependencias externas y con una configuración instantánea. La búsqueda admite:

  • Consultas simples: "attention mechanism"

  • Booleanas: transformer AND attention

  • Negación: transformer NOT GPT

  • Prefijo: trans*

Lint (Revisión)

La herramienta de lint comprueba:

  • Enlaces rotos: referencias [[Page Name]] a páginas que no existen

  • Páginas huérfanas: páginas sin enlaces entrantes

  • Páginas vacías: páginas solo con título o sin contenido

Casos de uso

  • Onboarding técnico: Ingiere la documentación de toda una base de código en una wiki para que un agente pueda responder preguntas de arquitectura rápidamente

  • Estado del proyecto: Mantén una wiki de proyecto donde el agente rastree errores actuales, decisiones arquitectónicas y tareas pendientes a través de múltiples sesiones de chat

  • Inteligencia competitiva: Alimenta al agente con informes de mercado y deja que mantenga una wiki de panorama vivo que se actualiza a medida que llega nueva información

Consejos

  • Transparencia y auditoría: Dado que la wiki es solo una carpeta de archivos markdown, puedes apuntar cualquier visor como VS Code, Zed u Obsidian al directorio para auditar el trabajo del agente o visualizar su grafo de conocimiento interno. No se requiere GUI para que el agente funcione

  • La wiki son solo archivos markdown en un repositorio git, por lo que el historial de versiones y la colaboración vienen incluidos

  • Empieza poco a poco. Incluso 5-10 fuentes producen una wiki sorprendentemente útil

  • Deja que el LLM haga referencias cruzadas de forma agresiva porque el valor está en las conexiones

Desarrollo

git clone https://github.com/iamsashank09/llm-wiki-kit
cd llm-wiki-kit
uv venv && source .venv/bin/activate
uv pip install -e .

Créditos

Basado en la idea de LLM Wiki de Andrej Karpathy.

Licencia

MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/iamsashank09/llm-wiki-kit'

If you have feedback or need assistance with the MCP directory API, please join our Discord server