Skip to main content
Glama
MABAAM
by MABAAM

mcp-research

Ein eigenständiger MCP-Server (Model Context Protocol), der Web-Recherche-Tools bereitstellt. Drei praxiserprobte Tools für KI-Assistenten: das Web durchsuchen, Seiten abrufen & in Markdown konvertieren und komplexe Multi-Quellen-Recherchen durchführen – alles über das MCP-stdio-Protokoll.

Tools

Tool

Beschreibung

web_search

3-stufige Suchkaskade: Brave API → DuckDuckGo → HTML-Scraper

fetch_url

Beliebige URL abrufen → sauberes Markdown, mit SSRF-Schutz und 24h-Cache

research

Komplexe Pipeline: Abfrage-Optimierung → Suche → paralleles Abrufen → Zusammenfassung → Synthese

Alle Tools sind schreibgeschützt – sie rufen öffentliche Webinhalte ab und transformieren diese, ohne jemals etwas zu verändern.

Installation

pip install mcp-research

Oder direkt mit uvx ausführen (keine Installation erforderlich):

uvx mcp-research

Konfiguration

Die gesamte Konfiguration erfolgt über Umgebungsvariablen – es sind keine Konfigurationsdateien erforderlich.

Variable

Standard

Beschreibung

BRAVE_API_KEY

(leer)

Brave Search API-Schlüssel. Fällt auf DuckDuckGo zurück, falls nicht gesetzt.

OLLAMA_URL

http://localhost:11434

Ollama-Endpunkt für Zusammenfassung/Synthese. Leer lassen zum Deaktivieren.

OLLAMA_MODEL

qwen2.5:14b

Modell für Zusammenfassung und Synthese.

MCP_RESEARCH_CACHE_DIR

~/.mcp-research/cache/

Cache-Verzeichnis für URL-Abrufe.

MCP_RESEARCH_CACHE_TTL

24

Cache-TTL in Stunden.

MCP_RESEARCH_LOG_DIR

~/.mcp-research/logs/

Such-Log-Verzeichnis (NDJSON).

MCP_RESEARCH_MAX_RESULTS

10

Standardmäßige maximale Suchergebnisse.

Verwendung mit Claude Code

Zur Claude Code MCP-Konfiguration hinzufügen (~/.claude/settings.json oder Projekt .mcp.json):

{
  "mcpServers": {
    "research": {
      "command": "uvx",
      "args": ["mcp-research"],
      "env": {
        "BRAVE_API_KEY": "BSA...",
        "OLLAMA_URL": "http://localhost:11434"
      }
    }
  }
}

Verwendung mit Claude Desktop

Zu claude_desktop_config.json hinzufügen:

{
  "mcpServers": {
    "research": {
      "command": "uvx",
      "args": ["mcp-research"],
      "env": {
        "BRAVE_API_KEY": "BSA..."
      }
    }
  }
}

Tool-Details

web_search(query, max_results=5, summarize=False, auto_fetch_top=False)

Durchsucht das Web unter Verwendung einer 3-stufigen Kaskade für maximale Zuverlässigkeit:

  1. Brave Search API – schnell, hohe Qualität (erfordert BRAVE_API_KEY)

  2. DuckDuckGo-Bibliothek – kein API-Schlüssel erforderlich, Wiederholungsversuche bei Ratenbegrenzung

  3. DuckDuckGo HTML-Scraper – Fallback als letzte Option

Optionen:

  • summarize: Ollama zur Zusammenfassung der Ergebnisse verwenden (erfordert laufendes Ollama)

  • auto_fetch_top: Zusätzlich den vollständigen Inhalt des Top-Ergebnisses abrufen und zurückgeben

fetch_url

fetch_url(url, summarize=False, max_chars=50000)

Ruft eine URL ab und konvertiert sie in sauberes Markdown:

  • SSRF-Schutz: Blockiert localhost, private IPs, Nicht-HTTP-Schemata

  • Intelligente Wiederholung: Exponentielles Backoff bei 429/5xx, Validierung von Redirects pro Hop

  • 24h-Cache: SHA-256-verschlüsselt, konfigurierbare TTL

  • Inhaltsunterstützung: HTML → Markdown, JSON → Code-Block, Binär → abgelehnt

  • Intelligente Kürzung: Bricht an Überschriften-/Absatzgrenzen ab, nicht mitten im Text

research

research(query, depth="standard", context="")

Komplexe Recherche-Pipeline:

  1. Abfrage-Optimierung – Ollama optimiert Ihre Frage in Suchbegriffe

  2. Websuche – findet relevante Seiten (mit Erweiterung bei Null-Ergebnissen)

  3. Paralleles Abrufen – ruft die Top-N-Seiten gleichzeitig ab

  4. Zusammenfassung – Ollama fasst jede Seite zusammen

  5. Synthese – Ollama erstellt eine finale, zitierte Antwort

Tiefenstufen:

Tiefe

Seiten

Synthese

quick

2

Nein

standard

5

Ja

deep

10

Ja

Alle Schritte funktionieren auch ohne Ollama – Sie erhalten weiterhin Suchergebnisse und den rohen Seiteninhalt.

Entwicklung

git clone https://github.com/MABAAM/Maibaamcrawler.git
cd Maibaamcrawler
pip install -e .
python -m mcp_research

Lizenz

MIT

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MABAAM/Maibaamcrawler'

If you have feedback or need assistance with the MCP directory API, please join our Discord server