brainforge-mcp
brainforge-mcp
Convierte tus notas en markdown en un grafo de conocimiento impulsado por IA.
Este proyecto es una implementación del patrón de Wiki LLM de Andrej Karpathy como servidor MCP. Convierte una wiki en markdown en un grafo de conocimiento y permite explorarlo y analizarlo desde cualquier cliente LLM.
Idea central
[원본 자료] → [AI가 유지하는 위키] → [지식 그래프] → [LLM이 탐색·분석]
논문, 기사 sources/ graph.json MCP 도구로 질의
메모, 영상 concepts/ 인과 관계 추적
entities/ 건강 진단Lo que hacen las herramientas MCP: exploración del grafo de conocimiento, análisis de nodos, seguimiento de relaciones causales, diagnóstico de salud de la wiki. Lo que hace el LLM: lectura del original → resumen → creación de páginas wiki → inserción de wikienlaces/relaciones causales.
En resumen, brainforge-mcp es el "ojo" de la wiki, y el LLM es la "mano" de la wiki.
Ejemplo de la A a la Z: De un artículo a un grafo de conocimiento
Paso 0: Instalación + inicialización
uvx brainforge-mcp init ~/my-brainEstructura generada:
my-brain/
├── raw/ # 불변 원본 (사용자가 넣는 곳)
│ ├── papers/
│ ├── articles/
│ ├── transcripts/
│ └── notes/
├── wiki/ # AI가 유지하는 위키
│ ├── sources/
│ ├── concepts/
│ ├── entities/
│ ├── syntheses/
│ ├── index.md
│ └── log.md
└── output/ # 블로그, 포트폴리오 등Paso 1: Registro en el cliente MCP
Claude Desktop (claude_desktop_config.json):
{
"mcpServers": {
"wiki": {
"command": "uvx",
"args": ["brainforge-mcp", "--vault", "~/my-brain/wiki"]
}
}
}Kiro / Cursor / VS Code (mcp.json):
{
"mcpServers": {
"wiki": {
"command": "uvx",
"args": ["brainforge-mcp", "--vault", "~/my-brain/wiki"]
}
}
}Paso 2: Introducir material original
Convierte el PDF del artículo a markdown y guárdalo en raw/papers/:
# 예: marker로 PDF → 마크다운 변환
marker_single "lora-paper.pdf" --output_dir ~/my-brain/raw/papers/O guarda un artículo web directamente como markdown:
<!-- raw/articles/2026-04-17_lora-explained.md -->
---
title: "LoRA 논문 쉽게 설명하기"
source: https://example.com/lora
date: 2026-04-17
type: article
---
# LoRA 논문 쉽게 설명하기
LLM의 가중치를 Freeze하고 저랭크 행렬만 학습하여...Paso 3: Solicitar la ingesta al LLM (lo que hace el LLM)
En el chat:
"raw/articles/2026-04-17_lora-explained.md를 읽고 위키에 인제스트해줘"El LLM lee el original y genera los siguientes archivos:
wiki/sources/lora-explained.md (resumen de la fuente):
---
title: "LoRA 논문 쉽게 설명하기"
created: 2026-04-17
updated: 2026-04-17
tags: [LoRA, Fine-Tuning, PEFT]
sources: [raw/articles/2026-04-17_lora-explained.md]
---
# LoRA 논문 쉽게 설명하기
## Kernel
모델 가중치를 Freeze하고 저랭크 행렬만 학습하여 VRAM 절감.
## 핵심 주장
1. Fully Fine-Tuning 대비 VRAM 대폭 절감
2. 성능은 동등하거나 우수
...wiki/concepts/lora.md (página de concepto):
---
title: LoRA (Low-Rank Adaptation)
created: 2026-04-17
updated: 2026-04-17
tags: [개념, Fine-Tuning, PEFT]
sources: [raw/articles/2026-04-17_lora-explained.md]
---
# LoRA (Low-Rank Adaptation)
## Kernel
가중치 행렬 W를 직접 업데이트하지 않고, 저랭크 행렬 LoRA_A·LoRA_B만 학습.
> [!causal] 인과 관계
> [[lora]] →(가능하게 함)→ [[fine-tuning]]의 효율적 수행
> 신뢰도: 높음 | 출처: [[lora-explained]]
## 관련
[[fine-tuning]], [[transformer]], [[quantization]]Paso 4: Construcción del grafo (herramienta MCP)
En el chat:
"위키 그래프 재빌드해줘"→ Se llama a la herramienta rebuild_graph, que analiza los wikienlaces + relaciones causales en el markdown de wiki/ para generar graph.json.
Paso 5: Exploración del conocimiento (herramienta MCP)
Ahora que el grafo existe, es posible explorarlo:
"LoRA가 내 위키에서 어떤 위치야?"→ Llamada a explain_node("LoRA"):
## LoRA (Low-Rank Adaptation)
카테고리: concepts | 태그: Fine-Tuning, PEFT
### 위치 분석
- 연결도: 9 (상위 26%) → 중간 연결자
- 인과 역할: 기반 기술 — 다른 1개 개념을 가능하게 함
### 인과 요약
- LoRA →(가능하게 함)→ Fine-Tuning의 효율적 수행
### 성장 제안
- 인과 관계 callout 추가 권장 (현재 1개)"위키 상태 어때?"→ Llamada a graph_summary():
## 위키 건강 리포트
### 규모: 초기 단계
- 실제 페이지: 5개 (concepts 2, sources 1, entities 1)
- 밀도: 2.4 엣지/노드 → 낮은 밀도 — 위키링크 추가 권장
### 약점
- 미해결 노드 3개 (37.5%)
- 인과 비율 5.0% — callout 추가 권장
### 다음 행동
1. 미해결 페이지 생성: transformer(2연결), quantization(1연결)Características
🔗 Construcción automática de grafos de conocimiento basada en wikienlaces + relaciones causales
🧠 Interpretación semántica — análisis de contexto como "conector intermedio del 26% superior" en lugar de solo "9 conexiones"
📊 Diagnóstico de salud — sugerencias concretas sobre fortalezas/debilidades/próximas acciones de la wiki
⚡ Seguimiento de cadenas causales — análisis de "por qué" se conectan los conceptos, tanto aguas arriba como aguas abajo
🔌 Estándar MCP — funciona en cualquier lugar: Claude Desktop, Cursor, Kiro, VS Code, etc.
Lista de herramientas
Herramienta | Descripción | ¿Quién la llama? |
| Perfil del nodo — análisis de ubicación, rol causal, sugerencias de crecimiento | LLM (automático) |
| Ruta más corta entre dos conceptos — interpretación de fuerza de conexión y nodos intermedios | LLM (automático) |
| Red causal — aguas arriba/aguas abajo, interpretación en lenguaje natural de las relaciones | LLM (automático) |
| Informe de salud de la wiki — escala, densidad, sugerencias de acción | LLM (automático) |
| Reconstrucción del grafo — actualización tras cambios en el markdown | LLM (automático) |
Nota: La creación/edición de páginas wiki la realiza directamente el LLM, no las herramientas MCP. brainforge-mcp se especializa en "lectura + análisis", mientras que la "escritura" es rol del LLM.
Notación de relaciones causales
Los wikienlaces ([[]]) solo expresan conexiones. El "por qué" de la conexión se especifica mediante callouts causales:
> [!causal] 인과 관계
> [[메타러닝]] →(가능하게 함)→ [[DiscoRL]]의 RL 규칙 자동 발견
> 신뢰도: 높음 | 출처: [[discovering-sota-rl-algorithms]]Tipos de relación admitidos:
→(posibilita)→/→(mejora el rendimiento)→/→(reduce el rendimiento)→→(es base de)→/→(desarrolla)→/→(reemplaza)→→(incluye)→/→(se aplica a)→
Aplicación a un vault de Obsidian existente
Si ya usas Obsidian, puedes crear la carpeta wiki/ dentro de tu vault y especificarla con la opción --vault. Analizará automáticamente tus [[wikienlaces]] existentes.
Licencia
MIT
Inspirado en la idea de Wiki LLM de Andrej Karpathy.
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/mengro1102/brainforge-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server