mcp-research
mcp-research
Ein eigenständiger MCP-Server (Model Context Protocol), der Web-Recherche-Tools bereitstellt. Drei praxiserprobte Tools für KI-Assistenten: das Web durchsuchen, Seiten abrufen & in Markdown konvertieren und komplexe Multi-Quellen-Recherchen durchführen – alles über das MCP-stdio-Protokoll.
Tools
Tool | Beschreibung |
| 3-stufige Suchkaskade: Brave API → DuckDuckGo → HTML-Scraper |
| Beliebige URL abrufen → sauberes Markdown, mit SSRF-Schutz und 24h-Cache |
| Komplexe Pipeline: Abfrage-Optimierung → Suche → paralleles Abrufen → Zusammenfassung → Synthese |
Alle Tools sind schreibgeschützt – sie rufen öffentliche Webinhalte ab und transformieren diese, ohne jemals etwas zu verändern.
Installation
pip install mcp-researchOder direkt mit uvx ausführen (keine Installation erforderlich):
uvx mcp-researchKonfiguration
Die gesamte Konfiguration erfolgt über Umgebungsvariablen – es sind keine Konfigurationsdateien erforderlich.
Variable | Standard | Beschreibung |
| (leer) | Brave Search API-Schlüssel. Fällt auf DuckDuckGo zurück, falls nicht gesetzt. |
|
| Ollama-Endpunkt für Zusammenfassung/Synthese. Leer lassen zum Deaktivieren. |
|
| Modell für Zusammenfassung und Synthese. |
|
| Cache-Verzeichnis für URL-Abrufe. |
|
| Cache-TTL in Stunden. |
|
| Such-Log-Verzeichnis (NDJSON). |
|
| Standardmäßige maximale Suchergebnisse. |
Verwendung mit Claude Code
Zur Claude Code MCP-Konfiguration hinzufügen (~/.claude/settings.json oder Projekt .mcp.json):
{
"mcpServers": {
"research": {
"command": "uvx",
"args": ["mcp-research"],
"env": {
"BRAVE_API_KEY": "BSA...",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}Verwendung mit Claude Desktop
Zu claude_desktop_config.json hinzufügen:
{
"mcpServers": {
"research": {
"command": "uvx",
"args": ["mcp-research"],
"env": {
"BRAVE_API_KEY": "BSA..."
}
}
}
}Tool-Details
web_search
web_search(query, max_results=5, summarize=False, auto_fetch_top=False)Durchsucht das Web unter Verwendung einer 3-stufigen Kaskade für maximale Zuverlässigkeit:
Brave Search API – schnell, hohe Qualität (erfordert
BRAVE_API_KEY)DuckDuckGo-Bibliothek – kein API-Schlüssel erforderlich, Wiederholungsversuche bei Ratenbegrenzung
DuckDuckGo HTML-Scraper – Fallback als letzte Option
Optionen:
summarize: Ollama zur Zusammenfassung der Ergebnisse verwenden (erfordert laufendes Ollama)auto_fetch_top: Zusätzlich den vollständigen Inhalt des Top-Ergebnisses abrufen und zurückgeben
fetch_url
fetch_url(url, summarize=False, max_chars=50000)Ruft eine URL ab und konvertiert sie in sauberes Markdown:
SSRF-Schutz: Blockiert localhost, private IPs, Nicht-HTTP-Schemata
Intelligente Wiederholung: Exponentielles Backoff bei 429/5xx, Validierung von Redirects pro Hop
24h-Cache: SHA-256-verschlüsselt, konfigurierbare TTL
Inhaltsunterstützung: HTML → Markdown, JSON → Code-Block, Binär → abgelehnt
Intelligente Kürzung: Bricht an Überschriften-/Absatzgrenzen ab, nicht mitten im Text
research
research(query, depth="standard", context="")Komplexe Recherche-Pipeline:
Abfrage-Optimierung – Ollama optimiert Ihre Frage in Suchbegriffe
Websuche – findet relevante Seiten (mit Erweiterung bei Null-Ergebnissen)
Paralleles Abrufen – ruft die Top-N-Seiten gleichzeitig ab
Zusammenfassung – Ollama fasst jede Seite zusammen
Synthese – Ollama erstellt eine finale, zitierte Antwort
Tiefenstufen:
Tiefe | Seiten | Synthese |
| 2 | Nein |
| 5 | Ja |
| 10 | Ja |
Alle Schritte funktionieren auch ohne Ollama – Sie erhalten weiterhin Suchergebnisse und den rohen Seiteninhalt.
Entwicklung
git clone https://github.com/MABAAM/Maibaamcrawler.git
cd Maibaamcrawler
pip install -e .
python -m mcp_researchLizenz
MIT
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Tools
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/MABAAM/Maibaamcrawler'
If you have feedback or need assistance with the MCP directory API, please join our Discord server