Skip to main content
Glama

brainforge-mcp

PyPI Python License: MIT

Convierte tus notas en markdown en un grafo de conocimiento impulsado por IA.

Este proyecto es una implementación del patrón de Wiki LLM de Andrej Karpathy como servidor MCP. Convierte una wiki en markdown en un grafo de conocimiento y permite explorarlo y analizarlo desde cualquier cliente LLM.

Idea central

[원본 자료]  →  [AI가 유지하는 위키]  →  [지식 그래프]  →  [LLM이 탐색·분석]
 논문, 기사       sources/                 graph.json       MCP 도구로 질의
 메모, 영상       concepts/                                  인과 관계 추적
                  entities/                                  건강 진단

Lo que hacen las herramientas MCP: exploración del grafo de conocimiento, análisis de nodos, seguimiento de relaciones causales, diagnóstico de salud de la wiki. Lo que hace el LLM: lectura del original → resumen → creación de páginas wiki → inserción de wikienlaces/relaciones causales.

En resumen, brainforge-mcp es el "ojo" de la wiki, y el LLM es la "mano" de la wiki.


Ejemplo de la A a la Z: De un artículo a un grafo de conocimiento

Paso 0: Instalación + inicialización

uvx brainforge-mcp init ~/my-brain

Estructura generada:

my-brain/
├── raw/              # 불변 원본 (사용자가 넣는 곳)
│   ├── papers/
│   ├── articles/
│   ├── transcripts/
│   └── notes/
├── wiki/             # AI가 유지하는 위키
│   ├── sources/
│   ├── concepts/
│   ├── entities/
│   ├── syntheses/
│   ├── index.md
│   └── log.md
└── output/           # 블로그, 포트폴리오 등

Paso 1: Registro en el cliente MCP

Claude Desktop (claude_desktop_config.json):

{
  "mcpServers": {
    "wiki": {
      "command": "uvx",
      "args": ["brainforge-mcp", "--vault", "~/my-brain/wiki"]
    }
  }
}

Kiro / Cursor / VS Code (mcp.json):

{
  "mcpServers": {
    "wiki": {
      "command": "uvx",
      "args": ["brainforge-mcp", "--vault", "~/my-brain/wiki"]
    }
  }
}

Paso 2: Introducir material original

Convierte el PDF del artículo a markdown y guárdalo en raw/papers/:

# 예: marker로 PDF → 마크다운 변환
marker_single "lora-paper.pdf" --output_dir ~/my-brain/raw/papers/

O guarda un artículo web directamente como markdown:

<!-- raw/articles/2026-04-17_lora-explained.md -->
---
title: "LoRA 논문 쉽게 설명하기"
source: https://example.com/lora
date: 2026-04-17
type: article
---

# LoRA 논문 쉽게 설명하기
LLM의 가중치를 Freeze하고 저랭크 행렬만 학습하여...

Paso 3: Solicitar la ingesta al LLM (lo que hace el LLM)

En el chat:

"raw/articles/2026-04-17_lora-explained.md를 읽고 위키에 인제스트해줘"

El LLM lee el original y genera los siguientes archivos:

wiki/sources/lora-explained.md (resumen de la fuente):

---
title: "LoRA 논문 쉽게 설명하기"
created: 2026-04-17
updated: 2026-04-17
tags: [LoRA, Fine-Tuning, PEFT]
sources: [raw/articles/2026-04-17_lora-explained.md]
---

# LoRA 논문 쉽게 설명하기

## Kernel
모델 가중치를 Freeze하고 저랭크 행렬만 학습하여 VRAM 절감.

## 핵심 주장
1. Fully Fine-Tuning 대비 VRAM 대폭 절감
2. 성능은 동등하거나 우수
...

wiki/concepts/lora.md (página de concepto):

---
title: LoRA (Low-Rank Adaptation)
created: 2026-04-17
updated: 2026-04-17
tags: [개념, Fine-Tuning, PEFT]
sources: [raw/articles/2026-04-17_lora-explained.md]
---

# LoRA (Low-Rank Adaptation)

## Kernel
가중치 행렬 W를 직접 업데이트하지 않고, 저랭크 행렬 LoRA_A·LoRA_B만 학습.

> [!causal] 인과 관계
> [[lora]] →(가능하게 함)→ [[fine-tuning]]의 효율적 수행
> 신뢰도: 높음 | 출처: [[lora-explained]]

## 관련
[[fine-tuning]], [[transformer]], [[quantization]]

Paso 4: Construcción del grafo (herramienta MCP)

En el chat:

"위키 그래프 재빌드해줘"

→ Se llama a la herramienta rebuild_graph, que analiza los wikienlaces + relaciones causales en el markdown de wiki/ para generar graph.json.

Paso 5: Exploración del conocimiento (herramienta MCP)

Ahora que el grafo existe, es posible explorarlo:

"LoRA가 내 위키에서 어떤 위치야?"

→ Llamada a explain_node("LoRA"):

## LoRA (Low-Rank Adaptation)
카테고리: concepts | 태그: Fine-Tuning, PEFT

### 위치 분석
- 연결도: 9 (상위 26%) → 중간 연결자
- 인과 역할: 기반 기술 — 다른 1개 개념을 가능하게 함

### 인과 요약
- LoRA →(가능하게 함)→ Fine-Tuning의 효율적 수행

### 성장 제안
- 인과 관계 callout 추가 권장 (현재 1개)
"위키 상태 어때?"

→ Llamada a graph_summary():

## 위키 건강 리포트

### 규모: 초기 단계
- 실제 페이지: 5개 (concepts 2, sources 1, entities 1)
- 밀도: 2.4 엣지/노드 → 낮은 밀도 — 위키링크 추가 권장

### 약점
- 미해결 노드 3개 (37.5%)
- 인과 비율 5.0% — callout 추가 권장

### 다음 행동
1. 미해결 페이지 생성: transformer(2연결), quantization(1연결)

Características

  • 🔗 Construcción automática de grafos de conocimiento basada en wikienlaces + relaciones causales

  • 🧠 Interpretación semántica — análisis de contexto como "conector intermedio del 26% superior" en lugar de solo "9 conexiones"

  • 📊 Diagnóstico de salud — sugerencias concretas sobre fortalezas/debilidades/próximas acciones de la wiki

  • Seguimiento de cadenas causales — análisis de "por qué" se conectan los conceptos, tanto aguas arriba como aguas abajo

  • 🔌 Estándar MCP — funciona en cualquier lugar: Claude Desktop, Cursor, Kiro, VS Code, etc.

Lista de herramientas

Herramienta

Descripción

¿Quién la llama?

explain_node

Perfil del nodo — análisis de ubicación, rol causal, sugerencias de crecimiento

LLM (automático)

find_path

Ruta más corta entre dos conceptos — interpretación de fuerza de conexión y nodos intermedios

LLM (automático)

causal_chain

Red causal — aguas arriba/aguas abajo, interpretación en lenguaje natural de las relaciones

LLM (automático)

graph_summary

Informe de salud de la wiki — escala, densidad, sugerencias de acción

LLM (automático)

rebuild_graph

Reconstrucción del grafo — actualización tras cambios en el markdown

LLM (automático)

Nota: La creación/edición de páginas wiki la realiza directamente el LLM, no las herramientas MCP. brainforge-mcp se especializa en "lectura + análisis", mientras que la "escritura" es rol del LLM.

Notación de relaciones causales

Los wikienlaces ([[]]) solo expresan conexiones. El "por qué" de la conexión se especifica mediante callouts causales:

> [!causal] 인과 관계
> [[메타러닝]] →(가능하게 함)→ [[DiscoRL]]의 RL 규칙 자동 발견
> 신뢰도: 높음 | 출처: [[discovering-sota-rl-algorithms]]

Tipos de relación admitidos:

  • →(posibilita)→ / →(mejora el rendimiento)→ / →(reduce el rendimiento)→

  • →(es base de)→ / →(desarrolla)→ / →(reemplaza)→

  • →(incluye)→ / →(se aplica a)→

Aplicación a un vault de Obsidian existente

Si ya usas Obsidian, puedes crear la carpeta wiki/ dentro de tu vault y especificarla con la opción --vault. Analizará automáticamente tus [[wikienlaces]] existentes.

Licencia

MIT


Inspirado en la idea de Wiki LLM de Andrej Karpathy.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/mengro1102/brainforge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server