LLM Wiki Kit
📚 llm-wiki-kit
Un servidor MCP que implementa el patrón LLM Wiki de Karpathy: bases de conocimiento persistentes y mantenidas por LLM que se acumulan con el tiempo.
En lugar de RAG (redescubrir conocimiento desde cero en cada consulta), el LLM construye y mantiene incrementalmente una wiki estructurada con archivos markdown interconectados, referencias cruzadas, resúmenes y síntesis que se enriquecen con cada fuente que añades.
¿Por qué?
La parte tediosa de mantener una base de conocimiento no es leer o pensar, es la gestión. Actualizar referencias cruzadas, mantener los resúmenes al día, anotar contradicciones, mantener la coherencia. Los LLM son perfectos para esto. Tú diriges y supervisas. El LLM hace todo lo demás.
Ejemplo de caso de uso: El bucle de investigación
Imagina que estás investigando una tecnología nueva y compleja como la decodificación especulativa de LLM. En lugar de leer 10 artículos y tomar notas manualmente, usas llm-wiki-kit para permitir que tu agente construya un mapa de estado con el tiempo.
El flujo de trabajo
Humano: coloca 3 PDF en
raw/Humano: "Analiza estos artículos y actualiza la KB. Presta especial atención a las optimizaciones de la caché KV."
Agente (vía MCP):
Llama a
wiki_ingestpara cada artículoLlama a
wiki_write_pagepara crearconcepts/speculative_decoding.mdLlama a
wiki_write_pagepara actualizarsynthesis/cache_strategies.mdy vincularlo a los artículosLlama a
wiki_lintpara asegurar que el nuevo concepto de "Modelo de borrador" esté referenciado con las páginas de "Inferencia" existentes
El resultado
Dos semanas después, inicias una nueva sesión de chat en Cursor o Claude Code. No necesitas volver a subir los artículos ni volver a explicar lo que aprendiste. Preguntas:
"Basado en nuestra investigación hasta ahora, ¿qué arquitectura de modelo de borrador es más eficiente para Llama 3?"
Tu agente llama a wiki_search, lee las páginas de síntesis que escribió anteriormente y responde a partir de la evidencia acumulada:
"Basado en la evidencia compilada en tu KB, la arquitectura Eagle es actualmente la líder porque..."
Inicio rápido
Instalación
Requiere Python 3.10+.
# With uv (recommended)
uv pip install git+https://github.com/iamsashank09/llm-wiki-kit.git
# With pip
pip install git+https://github.com/iamsashank09/llm-wiki-kit.gitNota: La publicación en PyPI llegará pronto. Por ahora, instálalo directamente desde GitHub.
Inicializar una wiki
mkdir my-research && cd my-research
llm-wiki-kit init --agent claudeEsto crea:
my-research/
├── raw/ ← Drop source files here (immutable)
├── wiki/ ← LLM-maintained wiki pages
│ ├── index.md ← Master index
│ └── log.md ← Chronological operation log
└── WIKI.md ← Schema file for your LLM agentConectar a tu agente LLM
Claude Desktop / Claude Code
Añade a tu configuración de MCP (claude_desktop_config.json):
{
"mcpServers": {
"llm-wiki-kit": {
"command": "llm-wiki-kit",
"args": ["serve", "--root", "/path/to/my-research"],
"env": {}
}
}
}OpenAI Codex
Añade el servidor con:
codex mcp add llm-wiki-kit -- llm-wiki-kit serve --root /path/to/my-researchO añádelo manualmente a ~/.codex/config.toml:
[mcp_servers.llm-wiki-kit]
command = "llm-wiki-kit"
args = ["serve", "--root", "/path/to/my-research"]Cursor
Añade a .cursor/mcp.json:
{
"mcpServers": {
"llm-wiki-kit": {
"command": "llm-wiki-kit",
"args": ["serve", "--root", "/path/to/my-research"]
}
}
}Windsurf
Añade a ~/.codeium/windsurf/mcp_config.json:
{
"mcpServers": {
"llm-wiki-kit": {
"command": "llm-wiki-kit",
"args": ["serve", "--root", "/path/to/my-research"]
}
}
}Cualquier agente compatible con MCP
llm-wiki-kit serve --root /path/to/my-researchEl servidor utiliza transporte stdio y es compatible con cualquier cliente MCP.
Uso
Una vez conectado, tu agente LLM tiene estas herramientas:
Herramienta | Descripción |
| Inicializar una nueva wiki |
| Procesar un documento fuente |
| Crear/actualizar una página de la wiki |
| Leer una página de la wiki |
| Búsqueda de texto completo (FTS5) |
| Verificación de salud para problemas |
| Resumen del estado de la wiki |
| Añadir al registro de operaciones |
Flujo de trabajo de ejemplo:
Coloca un artículo en
raw/Dile a tu agente: "Ingest raw/article.md"
El agente lo lee, crea páginas de wiki, hace referencias cruzadas de conceptos relacionados, actualiza el índice
Haz preguntas: "¿Cómo se relaciona X con Y?" y el agente busca en la wiki y sintetiza
Periódicamente: "Run a lint pass" para detectar enlaces rotos, páginas huérfanas y contradicciones
Arquitectura
Tres capas, según el diseño de Karpathy:
┌─────────────────────────────────────────────┐
│ You (the human) │
│ Source, direct, ask questions, think │
└──────────────────┬──────────────────────────┘
│
┌──────────────────▼──────────────────────────┐
│ Wiki (wiki/) │
│ LLM-maintained markdown files │
│ Summaries, entities, concepts, synthesis │
│ Cross-referenced with [[wiki links]] │
└──────────────────┬──────────────────────────┘
│
┌──────────────────▼──────────────────────────┐
│ Raw Sources (raw/) │
│ Articles, papers, notes (immutable) │
└─────────────────────────────────────────────┘Búsqueda
Las páginas de la wiki se indexan utilizando SQLite FTS5 con stemming de Porter, sin dependencias externas y con una configuración instantánea. La búsqueda admite:
Consultas simples:
"attention mechanism"Booleanas:
transformer AND attentionNegación:
transformer NOT GPTPrefijo:
trans*
Lint (Revisión)
La herramienta de lint comprueba:
Enlaces rotos: referencias
[[Page Name]]a páginas que no existenPáginas huérfanas: páginas sin enlaces entrantes
Páginas vacías: páginas solo con título o sin contenido
Casos de uso
Onboarding técnico: Ingiere la documentación de toda una base de código en una wiki para que un agente pueda responder preguntas de arquitectura rápidamente
Estado del proyecto: Mantén una wiki de proyecto donde el agente rastree errores actuales, decisiones arquitectónicas y tareas pendientes a través de múltiples sesiones de chat
Inteligencia competitiva: Alimenta al agente con informes de mercado y deja que mantenga una wiki de panorama vivo que se actualiza a medida que llega nueva información
Consejos
Transparencia y auditoría: Dado que la wiki es solo una carpeta de archivos markdown, puedes apuntar cualquier visor como VS Code, Zed u Obsidian al directorio para auditar el trabajo del agente o visualizar su grafo de conocimiento interno. No se requiere GUI para que el agente funcione
La wiki son solo archivos markdown en un repositorio git, por lo que el historial de versiones y la colaboración vienen incluidos
Empieza poco a poco. Incluso 5-10 fuentes producen una wiki sorprendentemente útil
Deja que el LLM haga referencias cruzadas de forma agresiva porque el valor está en las conexiones
Desarrollo
git clone https://github.com/iamsashank09/llm-wiki-kit
cd llm-wiki-kit
uv venv && source .venv/bin/activate
uv pip install -e .Créditos
Basado en la idea de LLM Wiki de Andrej Karpathy.
Licencia
MIT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/iamsashank09/llm-wiki-kit'
If you have feedback or need assistance with the MCP directory API, please join our Discord server