Skip to main content
Glama
iamsashank09

LLM Wiki Kit

by iamsashank09

📚 llm-wiki-kit

一个实现了 Karpathy 的 LLM Wiki 模式 的 MCP 服务器——即持久化、由 LLM 维护并随时间不断积累的知识库。

不同于 RAG(每次查询都从头开始重新发现知识),LLM 会增量构建并维护一个结构化的维基,其中包含互联的 Markdown 文件、交叉引用、摘要和综合分析,随着你添加的源文件越多,内容就越丰富。

为什么?

维护知识库最繁琐的部分不是阅读或思考,而是记账式的工作。更新交叉引用、保持摘要最新、记录矛盾点、维护一致性。LLM 非常适合做这些。你负责策划和指导,LLM 负责完成其余工作。

使用案例示例:研究循环

假设你正在研究一种复杂的新技术,例如 LLM 推测解码(speculative decoding)。与其阅读 10 篇论文并手动做笔记,不如使用 llm-wiki-kit 让你的代理随时间构建一张状态图。

工作流程

  1. 人类:将 3 份 PDF 放入 raw/

  2. 人类:“分析这些论文并更新知识库。特别注意 KV 缓存优化。”

  3. 代理(通过 MCP):

    • 为每篇论文调用 wiki_ingest

    • 调用 wiki_write_page 创建 concepts/speculative_decoding.md

    • 调用 wiki_write_page 更新 synthesis/cache_strategies.md 并将其链接到论文

    • 调用 wiki_lint 以确保新的“草稿模型”概念与现有的“推理”页面进行了交叉引用

结果

两周后,你在 Cursor 或 Claude Code 中开启了一个新的聊天会话。你无需重新上传论文或重新解释你学到的内容。你问:

“根据我们目前的研究,哪种草稿模型架构对 Llama 3 最有效?”

你的代理调用 wiki_search,阅读它之前编写的综合页面,并根据积累的证据回答:

“根据你知识库中汇编的证据,Eagle 架构目前处于领先地位,因为……”

快速开始

安装

需要 Python 3.10+。

# With uv (recommended)
uv pip install git+https://github.com/iamsashank09/llm-wiki-kit.git

# With pip
pip install git+https://github.com/iamsashank09/llm-wiki-kit.git

注意: PyPI 发布即将推出。目前,请直接从 GitHub 安装。

初始化维基

mkdir my-research && cd my-research
llm-wiki-kit init --agent claude

这将创建:

my-research/
├── raw/          ← Drop source files here (immutable)
├── wiki/         ← LLM-maintained wiki pages
│   ├── index.md  ← Master index
│   └── log.md    ← Chronological operation log
└── WIKI.md       ← Schema file for your LLM agent

连接到你的 LLM 代理

Claude Desktop / Claude Code

添加到你的 MCP 配置 (claude_desktop_config.json):

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"],
      "env": {}
    }
  }
}

OpenAI Codex

使用以下命令添加服务器:

codex mcp add llm-wiki-kit -- llm-wiki-kit serve --root /path/to/my-research

或者手动添加到 ~/.codex/config.toml

[mcp_servers.llm-wiki-kit]
command = "llm-wiki-kit"
args = ["serve", "--root", "/path/to/my-research"]

Cursor

添加到 .cursor/mcp.json

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"]
    }
  }
}

Windsurf

添加到 ~/.codeium/windsurf/mcp_config.json

{
  "mcpServers": {
    "llm-wiki-kit": {
      "command": "llm-wiki-kit",
      "args": ["serve", "--root", "/path/to/my-research"]
    }
  }
}

任何兼容 MCP 的代理

llm-wiki-kit serve --root /path/to/my-research

该服务器使用 stdio 传输,并与任何 MCP 客户端兼容。

使用它

连接后,你的 LLM 代理将拥有以下工具:

工具

描述

wiki_init

初始化一个新的维基

wiki_ingest

处理源文档

wiki_write_page

创建/更新维基页面

wiki_read_page

读取维基页面

wiki_search

全文搜索 (FTS5)

wiki_lint

问题健康检查

wiki_status

维基状态概览

wiki_log

追加到操作日志

工作流程示例:

  1. 将一篇文章放入 raw/

  2. 告诉你的代理:“Ingest raw/article.md

  3. 代理阅读它,创建维基页面,交叉引用相关概念,更新索引

  4. 提出问题:“X 与 Y 有什么关系?”,代理搜索维基并进行综合分析

  5. 定期执行:“Run a lint pass”以捕获断开的链接、孤立页面和矛盾点

架构

根据 Karpathy 的设计,分为三层:

┌─────────────────────────────────────────────┐
│  You (the human)                            │
│  Source, direct, ask questions, think        │
└──────────────────┬──────────────────────────┘
                   │
┌──────────────────▼──────────────────────────┐
│  Wiki (wiki/)                               │
│  LLM-maintained markdown files              │
│  Summaries, entities, concepts, synthesis   │
│  Cross-referenced with [[wiki links]]       │
└──────────────────┬──────────────────────────┘
                   │
┌──────────────────▼──────────────────────────┐
│  Raw Sources (raw/)                         │
│  Articles, papers, notes (immutable)        │
└─────────────────────────────────────────────┘

搜索

维基页面使用 SQLite FTS5 和 Porter 词干提取进行索引,零外部依赖,即时设置。搜索支持:

  • 简单查询:"attention mechanism"

  • 布尔运算:transformer AND attention

  • 取反:transformer NOT GPT

  • 前缀:trans*

Lint (检查)

Lint 工具检查以下内容:

  • 断开的链接: [[Page Name]] 引用了不存在的页面

  • 孤立页面: 没有入站链接的页面

  • 空页面: 只有标题或没有内容的页面

使用案例

  • 技术入职: 将整个代码库的文档摄取到维基中,以便代理可以快速回答架构问题

  • 项目状态: 维护一个项目维基,代理可以在多个聊天会话中跟踪当前的错误、架构决策和 TODO

  • 竞争情报: 向代理提供市场报告,让它维护一个随着新数据到来而更新的动态景观维基

提示

  • 透明度和审计: 由于维基只是一个 Markdown 文件文件夹,你可以将 VS Code、Zed 或 Obsidian 等任何查看器指向该目录,以审计代理的工作或可视化其内部知识图谱。代理运行不需要 GUI

  • 维基只是 Git 仓库中的 Markdown 文件,因此版本历史和协作是免费的

  • 从小处着手。即使是 5-10 个源文件也能产生一个非常有用的维基

  • 让 LLM 积极地进行交叉引用,因为价值在于连接

开发

git clone https://github.com/iamsashank09/llm-wiki-kit
cd llm-wiki-kit
uv venv && source .venv/bin/activate
uv pip install -e .

鸣谢

基于 Andrej KarpathyLLM Wiki 构想

许可证

MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/iamsashank09/llm-wiki-kit'

If you have feedback or need assistance with the MCP directory API, please join our Discord server