Local DeepWiki MCP Server
Local DeepWiki MCP Server
プライベートリポジトリ向けのDeepWiki形式ドキュメントを、RAGベースのQ&A機能とともに生成する、プライバシー重視のローカルMCPサーバーです。
クイックスタート
すぐに試す — このプロジェクトの事前構築済みWikiが含まれています:
git clone https://github.com/UrbanDiver/local-deepwiki-mcp.git
cd local-deepwiki-mcp
uv sync # Install dependencies
deepwiki serve .deepwiki # Browse the wiki at http://localhost:8080自分のリポジトリをインデックス化する — LLMプロバイダー(OpenAI、Anthropic、またはOllama)が必要です:
export OPENAI_API_KEY="..." # Or ANTHROPIC_API_KEY for Anthropic
deepwiki init # Configure LLM + embedding providers
deepwiki config health-check # Verify providers are working
deepwiki update /path/to/repo # Index a repository and generate wiki
deepwiki serve /path/to/repo/.deepwiki要件: Python 3.11以上、uv(以下のuvのインストールを参照)、およびLLMプロバイダー:
OpenAI(デフォルト) —
OPENAI_API_KEY環境変数を設定Anthropic —
ANTHROPIC_API_KEY環境変数を設定Ollama(完全ローカル、GPUが必要) — Ollamaをインストールし、
ollama pull qwen3-coder:30bを実行
機能
多言語コード解析(tree-sitterを使用:Python, TypeScript/JavaScript, Go, Rust, Java, C/C++, Objective-C, Swift, Ruby, PHP, Kotlin, C#)
ASTベースのチャンク分割(コード構造:関数、クラス、メソッドを尊重)
セマンティック検索(LanceDBベクトルデータベースを使用)
LLMによるWiki生成(Ollama(ローカル)、Anthropic、OpenAIをサポート)
設定可能な埋め込み - ローカル(sentence-transformers)またはOpenAI
インクリメンタルインデックス - 変更されたファイルのみを再処理
RAGベースのQ&A - コードベースに関する質問が可能
アーキテクチャの健全性 - 9次元スコアリング(複雑性、結合度、コードの臭い、レイヤー、チャーン、凝集度、重複、テスト容易性、保守性)
Deep Researchモード - 複雑なアーキテクチャの質問に対する多段階推論
Web UI - ブラウザで生成されたWikiを閲覧可能
HTMLへのエクスポート - 共有用の静的HTMLサイトを生成
PDFへのエクスポート - Mermaid図を含む印刷可能なPDFドキュメントを生成
インタラクティブなコードマップ - Mermaid図によるファイル横断的な実行フローの可視化
遅延ページ生成 - 閲覧時に必要なWikiページをオンデマンドで生成
インストール
uvを使用(推奨)
cd local-deepwiki-mcp
uv syncすべてのLLMプロバイダーとWeb UIはデフォルトで含まれています。PDFエクスポート用のオプション機能:
uv sync --extra pdf # Add WeasyPrint for PDF export
uv sync --extra all # Same as --extra pdf (all optional extras)pipを使用
cd local-deepwiki-mcp
pip install -e ".[all]" # Recommended: install with all extras
# or: pip install -e . # Minimal: core only設定
初期化ウィザードを実行して設定ファイルを自動生成します:
deepwiki init # Interactive wizard
deepwiki init --non-interactive # Auto-detect defaults (CI/CD)または、~/.config/local-deepwiki/config.yamlに手動で作成します:
embedding:
provider: "local" # or "openai"
local:
model: "all-MiniLM-L6-v2"
openai:
model: "text-embedding-3-small"
llm:
provider: "openai" # or "anthropic" or "ollama"
openai:
model: "gpt-4o"
# base_url: "https://your-proxy.example.com/v1" # For OpenAI-compatible proxies
anthropic:
model: "claude-sonnet-4-20250514"
ollama:
model: "qwen3-coder:30b"
base_url: "http://localhost:11434"
parsing:
languages:
- python
- typescript
- javascript
- go
- rust
- java
- c
- cpp
max_file_size: 1048576
exclude_patterns:
- "node_modules/**"
- "venv/**"
- ".git/**"
chunking:
max_chunk_tokens: 512
overlap_tokens: 50
output:
wiki_dir: ".deepwiki"
vector_db_name: "vectors.lance"uvのインストール
uvは高速なPythonパッケージマネージャーです。インストールされていない場合:
# macOS / Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
# Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
# Or with pip
pip install uv
# Or with Homebrew
brew install uvインストール後、ターミナルを再起動するか、source ~/.bashrc(または~/.zshrc)を実行してください。
MCPサーバーの統合
MCPサーバーはstdio経由で動作し、MCP互換のAIツールであればどれでも使用可能です。手動で起動する場合:
deepwiki mcpまたは、AIツールが自動的に起動するように設定します:
Claude Code
~/.claude/claude_code_config.jsonに追加:
{
"mcpServers": {
"local-deepwiki": {
"command": "uv",
"args": ["run", "--directory", "/path/to/local-deepwiki-mcp", "local-deepwiki"],
"env": {
"OPENAI_API_KEY": "${OPENAI_API_KEY}"
}
}
}
}Cursor
CursorのMCP設定に追加(Settings > MCP Servers > Add):
{
"mcpServers": {
"local-deepwiki": {
"command": "uv",
"args": ["run", "--directory", "/path/to/local-deepwiki-mcp", "local-deepwiki"],
"env": {
"OPENAI_API_KEY": "${OPENAI_API_KEY}"
}
}
}
}Windsurf
~/.codeium/windsurf/mcp_config.jsonに追加:
{
"mcpServers": {
"local-deepwiki": {
"command": "uv",
"args": ["run", "--directory", "/path/to/local-deepwiki-mcp", "local-deepwiki"],
"env": {
"OPENAI_API_KEY": "${OPENAI_API_KEY}"
}
}
}
}VS Code (Copilot)
ワークスペースの.vscode/mcp.jsonに追加:
{
"servers": {
"local-deepwiki": {
"command": "uv",
"args": ["run", "--directory", "/path/to/local-deepwiki-mcp", "local-deepwiki"],
"env": {
"OPENAI_API_KEY": "${OPENAI_API_KEY}"
}
}
}
}汎用(任意のMCPクライアント)
サーバーはMCPプロトコルを使用してstdio経由で通信します。起動コマンド:
uv run --directory /path/to/local-deepwiki-mcp local-deepwikiuvなしの場合(pip install -e .の後):
local-deepwiki注意: /path/to/local-deepwiki-mcpは、リポジトリをクローンした実際のパスに置き換えてください。OpenAIの代わりにAnthropicを使用する場合は、envブロックにANTHROPIC_API_KEYを追加してください。
MCPツール(64ツール)
サーバーは8つのカテゴリにわたる64個のMCPツールを公開しています。以下は最も一般的に使用されるツールの例と、その後の完全なツールリファレンスです。
コアツール
index_repository
リポジトリをインデックス化し、Wikiドキュメントを生成します。
{
"repo_path": "/path/to/repo",
"full_rebuild": false,
"llm_provider": "ollama",
"embedding_provider": "local"
}ask_question
RAGを使用してコードベースに関する質問をします。
{
"repo_path": "/path/to/repo",
"question": "How does the authentication system work?",
"max_context": 5
}deep_research
複雑なアーキテクチャの質問に対する多段階推論。クエリの分解、並列検索、ギャップ分析、包括的な統合を実行します。
{
"repo_path": "/path/to/repo",
"question": "How does the authentication system interact with the database layer?",
"max_chunks": 30
}ツール | 説明 |
| リポジトリをインデックス化し、Wikiドキュメントを生成 |
| コードベースに関するRAGベースのQ&A |
| クエリ分解と統合による多段階推論 |
| Wikiの目次を取得 |
| 特定のWikiページを読み込む |
| コードベース全体のセマンティック検索 |
| Wikiを静的HTMLサイトにエクスポート |
| Mermaid図のレンダリングを含むPDFにWikiをエクスポート |
ジェネレーターツール(12)
ツール | 説明 |
| Mermaid図(クラス、依存関係、モジュール、シーケンス)を生成 |
| 関数呼び出しグラフの解析 |
| 検索可能なコードエンティティ用語集 |
| クラス階層ツリー |
| ドキュメントカバレッジ解析 |
| Gitベースの変更履歴生成 |
| パラメータと戻り値の型の抽出 |
| エンティティのテスト例を抽出 |
| 古いWikiページを検出 |
| ハードコードされた認証情報をスキャン |
| リポジトリのインデックス状態と健全性 |
| インデックス化されたすべてのリポジトリを一覧表示 |
解析・検索ツール(10)
ツール | 説明 |
| Wikiページとコードエンティティ全体の全文検索 |
| レーベンシュタイン距離ベースの名前マッチング(「もしかして?」) |
| ソースファイルのインポート、呼び出し元、関連ファイル |
| 複合:用語集 + 呼び出しグラフ + 継承 + テスト + APIドキュメント |
| 逆呼び出しグラフとリスクレベルによる影響範囲分析 |
| tree-sitter ASTによる循環的複雑度とネストの深さ |
| Git diffを影響を受けるWikiページとエンティティにマッピング |
| コード変更に関するRAGベースのQ&A |
| pyproject.toml, package.json等から解析されたメタデータ |
| Wiki健全性ダッシュボード:インデックス、ページ、カバレッジ、ステータス |
アーキテクチャ健全性ツール(17)
ツール | 説明 |
| 9次元にわたる複合健全性グレード(A-F) |
| 複雑度、認知的複雑度、パラメータ数、長さ、ネストによる関数のランク付け |
| Robert C. Martinの結合メトリクス(Ca, Ce, I, A, D) |
| 神クラス、機能への嫉妬、長いメソッドなどの検出 |
| レイヤー違反の検出(ハンドラー→サービス→コア) |
| チャーン×複雑度の複合によるファイル変更頻度 |
| Jaccard類似度による同時変更の結合度 |
| LCOM4クラス凝集度とモジュールインポート凝集度 |
| タイプ1(完全一致)およびタイプ2(構造的)クローン検出 |
| テスト対コード比、カバレッジマッピング、アサーション密度 |
| 関数ごとの保守性インデックス(Halstead + CC + LOC) |
| 労力/影響度による優先順位付けされたリファクタリング提案 |
| 2つのGit参照間の健全性比較 |
| 過去の健全性スコアのスナップショット |
| モジュールスコープの複雑度、臭い、結合度、リスク |
| 新規開発者向けオンボーディングガイド |
| コードベースのインタラクティブなガイドツアー |
コードマップツール(2)
ツール | 説明 |
| Mermaid図とLLMによる解説を含むファイル横断的な実行フローマップ |
| 呼び出しグラフのハブから興味深いエントリポイントを発見 |
研究・進捗ツール(4)
ツール | 説明 |
| 保存されたDeep Researchチェックポイントを一覧表示 |
| チェックポイントされた研究セッションを再開 |
| 進行中の研究操作をキャンセル |
| 長時間実行操作の進捗を確認 |
エージェントツール(5)
ツール | 説明 |
| 最近の行動に基づいた、次に使用すべきツールのコンテキスト認識型提案 |
| 定義済みの多段階ワークフローを実行(例:完全解析、クイックレビュー) |
| 複数のエンティティに対する |
| エージェントRAG:チャンクの関連性を評価し、より良い結果のためにクエリを書き換え |
| 自然言語クエリに基づいて関連ツールを発見 |
Webサーバーツール(2)
ツール | 説明 |
| ドキュメント閲覧用のWiki Webサーバーを起動 |
| 実行中のWiki Webサーバーを停止 |
CLIコマンド
すべてのコマンドは統合されたdeepwiki CLIのサブコマンドです。レガシーなエントリポイント(deepwiki-serve, deepwiki-exportなど)も後方互換性のために引き続き動作します。
コマンド | 説明 |
| 設定用のインタラクティブなセットアップウィザード |
| インデックスの健全性、鮮度、Wikiカバレッジを表示 |
| リポジトリのインデックス化とWikiの再生成(インクリメンタル) |
| MCPサーバーを起動(IDE統合用) |
| Web UIでWikiを配信 |
| ウォッチモード - ファイル変更時に自動再インデックス |
| Wikiを静的HTMLにエクスポート |
| WikiをPDFにエクスポート |
| 設定管理(検証、表示、健全性チェック、プロファイル) |
| インタラクティブなファジーコード検索 |
| キャッシュ管理(統計、クリア、クリーンアップ) |
# Setup
deepwiki init # Interactive wizard
deepwiki init --non-interactive # Auto-detect defaults (CI/CD)
deepwiki init --non-interactive --force # Overwrite existing config
# Indexing & status
deepwiki update # Index repo and regenerate wiki
deepwiki update --full-rebuild # Force full rebuild
deepwiki update --dry-run # Preview what would change
deepwiki status # Show index health dashboard
deepwiki status --json # Machine-readable output
deepwiki status --verbose # Detailed file-level info
# MCP server
deepwiki mcp # Start MCP server (stdio)
# Web UI & export
deepwiki serve .deepwiki --port 8080 # Browse wiki in browser
deepwiki export .deepwiki --output ./html-export # Export to static HTML
deepwiki export-pdf .deepwiki -o docs.pdf # Export to single PDF
deepwiki export-pdf .deepwiki --separate -o dir/ # Export each page as PDF
# Configuration
deepwiki config show # Show effective configuration
deepwiki config show --raw # Show raw YAML
deepwiki config validate # Check config for errors
deepwiki config health-check # Verify provider connectivity
deepwiki config profile list # List saved config profiles
deepwiki config profile save dev # Save current config as profile
deepwiki config profile use prod # Switch to a profile
# Utilities
deepwiki search # Interactive fuzzy code search
deepwiki watch /path/to/repo # Auto-reindex on file changes
deepwiki cache stats # Show cache hit rates and sizes
deepwiki cache clear --llm --embedding # Clear caches
deepwiki cache cleanup # Remove expired entriesAPIキー
OpenAI(デフォルト)
サインイン(またはアカウント作成)
Create new secret keyをクリック
キーをコピーし、環境変数に設定:
export OPENAI_API_KEY="sk-..."永続化するには、~/.zshrcまたは~/.bashrcにexportを追加してください。
Anthropic
Create Keyをクリック
環境変数に設定:
export ANTHROPIC_API_KEY="sk-ant-..."OpenAI互換プロキシの使用
組織がOpenAI互換のAPIエンドポイントを提供している場合(GitHub Copilot Enterpriseや企業プロキシ経由など)、設定ファイルでbase_urlを設定してください:
llm:
provider: "openai"
openai:
model: "gpt-4o"
base_url: "https://your-proxy.example.com/v1"認証には引き続きOPENAI_API_KEY環境変数が必要です。
前提条件
ローカルLLMサポートの場合:
Ollamaがインストールされ、実行中であること
モデルがプルされていること(例:
ollama pull llama3.2)
PDFエクスポートの場合:
システムライブラリ:
pango,cairo,gdk-pixbuf(WeasyPrintの依存関係)macOS:
brew install pangoUbuntu/Debian:
apt install libpango-1.0-0 libpangocairo-1.0-0
Mermaid図のオプション:
npm install -g @mermaid-js/mermaid-cli
トラブルシューティング
Ollama接続エラー
「Failed to connect to Ollama」と表示される場合:
Ollamaが実行中であることを確認:
ollama serveモデルがプルされていることを確認:
ollama listデフォルトURLが機能するか確認:
curl http://localhost:11434/api/tagsカスタムポートを使用している場合は、
config.yamlのbase_urlを正しいものに更新
PDFエクスポートの失敗
「pango not found」や同様のCairo/Pangoエラー:
macOS:
brew install pango cairo gdk-pixbufUbuntu/Debian:
apt install libpango-1.0-0 libpangocairo-1.0-0 libgdk-pixbuf2.0-0Fedora: `dnf install pango cairo gdk-
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/UrbanDiver/local-deepwiki-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server