Skip to main content
Glama
MABAAM
by MABAAM

mcp-research

Webリサーチツールを提供するスタンドアロンのMCP (Model Context Protocol) サーバーです。AIアシスタント向けに、Web検索、ページの取得とMarkdownへの変換、および複合的なマルチソースリサーチの実行という、実戦で鍛えられた3つのツールをMCP stdioプロトコル経由で提供します。

ツール

ツール

説明

web_search

3段階の検索カスケード: Brave API → DuckDuckGo → HTMLスクレイパー

fetch_url

URLの取得 → クリーンなMarkdownへの変換(SSRF保護および24時間キャッシュ付き)

research

複合パイプライン: クエリの書き換え → 検索 → 並列取得 → 要約 → 合成

すべてのツールは読み取り専用です。公開されているWebコンテンツを取得・変換するだけで、何も変更しません。

インストール

pip install mcp-research

または uvx を使用して直接実行します(インストール不要):

uvx mcp-research

設定

すべての設定は環境変数で行います。設定ファイルは不要です。

変数

デフォルト

説明

BRAVE_API_KEY

(空)

Brave Search APIキー。設定されていない場合はDuckDuckGoにフォールバックします。

OLLAMA_URL

http://localhost:11434

要約/合成用のOllamaエンドポイント。無効にするには空に設定してください。

OLLAMA_MODEL

qwen2.5:14b

要約および合成に使用するモデル。

MCP_RESEARCH_CACHE_DIR

~/.mcp-research/cache/

URL取得キャッシュディレクトリ。

MCP_RESEARCH_CACHE_TTL

24

キャッシュのTTL(時間単位)。

MCP_RESEARCH_LOG_DIR

~/.mcp-research/logs/

検索ログディレクトリ (NDJSON)。

MCP_RESEARCH_MAX_RESULTS

10

デフォルトの最大検索結果数。

Claude Codeでの使用方法

Claude CodeのMCP設定(~/.claude/settings.json またはプロジェクトの .mcp.json)に追加します:

{
  "mcpServers": {
    "research": {
      "command": "uvx",
      "args": ["mcp-research"],
      "env": {
        "BRAVE_API_KEY": "BSA...",
        "OLLAMA_URL": "http://localhost:11434"
      }
    }
  }
}

Claude Desktopでの使用方法

claude_desktop_config.json に追加します:

{
  "mcpServers": {
    "research": {
      "command": "uvx",
      "args": ["mcp-research"],
      "env": {
        "BRAVE_API_KEY": "BSA..."
      }
    }
  }
}

ツールの詳細

web_search(query, max_results=5, summarize=False, auto_fetch_top=False)

信頼性を最大化するために3段階のカスケードを使用してWebを検索します:

  1. Brave Search API — 高速で高品質(BRAVE_API_KEYが必要)

  2. DuckDuckGoライブラリ — APIキー不要、レート制限時に再試行

  3. DuckDuckGo HTMLスクレイパー — 最後の手段としてのフォールバック

オプション:

  • summarize: Ollamaを使用して結果を要約する(Ollamaの実行が必要)

  • auto_fetch_top: 上位結果の全コンテンツも取得して返す

fetch_url

fetch_url(url, summarize=False, max_chars=50000)

URLを取得し、クリーンなMarkdownに変換します:

  • SSRF保護: ローカルホスト、プライベートIP、非HTTPスキームをブロック

  • スマート再試行: 429/5xxエラー時の指数バックオフ、ホップごとのリダイレクト検証

  • 24時間キャッシュ: SHA-256キー付き、TTL設定可能

  • コンテンツサポート: HTML → Markdown、JSON → コードブロック、バイナリ → 拒否

  • スマート切り詰め: テキストの途中ではなく、見出しや段落の境界で分割

research

research(query, depth="standard", context="")

複合リサーチパイプライン:

  1. クエリの書き換え — Ollamaが質問を検索キーワードに最適化

  2. Web検索 — 関連ページを検索(結果がゼロの場合は再試行して拡張)

  3. 並列取得 — 上位Nページを同時に取得

  4. 要約 — Ollamaが各ページを要約

  5. 合成 — Ollamaが引用付きの最終回答を作成

深度レベル:

深度

ページ数

合成

quick

2

なし

standard

5

あり

deep

10

あり

すべてのステップはOllamaなしでも正常に機能します。その場合でも、検索結果と生のページコンテンツは取得できます。

開発

git clone https://github.com/MABAAM/Maibaamcrawler.git
cd Maibaamcrawler
pip install -e .
python -m mcp_research

ライセンス

MIT

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MABAAM/Maibaamcrawler'

If you have feedback or need assistance with the MCP directory API, please join our Discord server