Repository hosting for the MCP server code, accessed through cloning for installation.
Supported as a web retriever option for the quick_search tool, allowing search queries through Google's search engine.
Integrates with OpenAI's API for powering the research functionality, requiring an API key for operation.
🔍 GPT Researcher MCP-Server
Warum GPT Researcher MCP?
Während LLM-Apps mit MCP auf Websuchtools zugreifen können, liefert GPT Researcher MCP umfassende Rechercheergebnisse. Standardsuchtools liefern Rohergebnisse, die manuell gefiltert werden müssen, oft irrelevante Quellen enthalten und Platz im Kontextfenster verschwenden.
GPT Researcher durchsucht und validiert selbstständig zahlreiche Quellen und konzentriert sich dabei ausschließlich auf relevante, vertrauenswürdige und aktuelle Informationen. Obwohl es etwas langsamer als die Standardsuche ist (ca. 30 Sekunden Wartezeit), bietet es:
- ✨ Hochwertigere Informationen
- 📊 Optimierte Kontextnutzung
- 🔎 Umfassende Ergebnisse
- 🧠 Bessere Argumentation für LLMs
💻 Claude Desktop-Demo
https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8
Ressourcen
research_resource
: Erhalten Sie durch Recherche Webressourcen, die mit einer bestimmten Aufgabe in Zusammenhang stehen.
Primäre Werkzeuge
deep_research
: Führt eine Deep-Web-Recherche zu einem Thema durch und findet die zuverlässigsten und relevantesten Informationenquick_search
: Führt eine schnelle Websuche durch, die auf Geschwindigkeit statt Qualität optimiert ist und Suchergebnisse mit Snippets liefert. Unterstützt alle GPTR-fähigen Web-Retriever wie Tavily, Bing, Google usw. Erfahren Sie hier mehr.write_report
: Erstellen Sie einen Bericht basierend auf den Forschungsergebnissenget_research_sources
: Holen Sie sich die in der Forschung verwendeten Quellenget_research_context
: Holen Sie sich den vollständigen Kontext der Forschung
Eingabeaufforderungen
research_query
: Erstellen Sie eine Eingabeaufforderung für eine Forschungsabfrage
Voraussetzungen
Stellen Sie vor dem Ausführen des MCP-Servers sicher, dass Sie über Folgendes verfügen:
- Python 3.11 oder höher installiert
- Wichtig : GPT Researcher >=0.12.16 erfordert Python 3.11+
- API-Schlüssel für die Dienste, die Sie verwenden möchten:
⚙️ Installation
- Klonen Sie das GPT Researcher-Repository:
- Installieren Sie die gptr-mcp-Abhängigkeiten:
- Richten Sie Ihre Umgebungsvariablen ein:
- Kopieren Sie die Datei
.env.example
, um eine neue Datei mit dem Namen.env
: GXP3 zu erstellen. - Bearbeiten Sie die
.env
Datei, fügen Sie Ihre API-Schlüssel hinzu und konfigurieren Sie andere Einstellungen: GXP4
- Kopieren Sie die Datei
Sie können Ihrer GPT Researcher-Konfiguration auch beliebige andere Umgebungsvariablen hinzufügen.
🚀 Ausführen des MCP-Servers
Sie können den MCP-Server auf verschiedene Arten ausführen:
Methode 1: Direkt mit Python
Methode 2: Verwenden der MCP-CLI (falls installiert)
Methode 3: Verwenden von Docker (für die Produktion empfohlen)
Option A: Standalone-Modus
Dies ist die einfachste Möglichkeit, den Server auszuführen, wenn Sie keine Verbindung zu anderen Containern herstellen müssen:
Option B: Mit Netzwerk für n8n-Integration
Wenn Sie eine Verbindung zu anderen Diensten wie n8n im selben Netzwerk herstellen müssen:
Hinweis : Das Docker-Image verwendet Python 3.11, um die Anforderungen von gpt-researcher >=0.12.16 zu erfüllen. Sollten während des Builds Fehler auftreten, stellen Sie sicher, dass Sie die neueste Docker-Datei aus diesem Repository verwenden.
Sobald der Server läuft, wird eine Ausgabe angezeigt, die anzeigt, dass er bereit ist, Verbindungen anzunehmen. Sie können die Funktion folgendermaßen überprüfen:
- Zugriff auf die OpenAPI-Dokumente unter http://localhost:8000/docs
- Testen des MCP-Endpunkts unter http://localhost:8000/mcp
Integration mit Claude
Sie können Ihren MCP-Server mit Claude integrieren, indem Sie Folgendes verwenden:
Claude Desktop Integration – Zur Verwendung mit der Claude-Desktopanwendung auf dem Mac
Für detaillierte Anweisungen folgen Sie dem Link oben.
💻 Claude Desktop-Integration
Um Ihren lokal laufenden MCP-Server mit Claude für Mac zu integrieren, müssen Sie:
- Stellen Sie sicher, dass der MCP-Server installiert und ausgeführt wird
- Claude Desktop konfigurieren:
- Suchen oder erstellen Sie die Konfigurationsdatei unter
~/Library/Application Support/Claude/claude_desktop_config.json
- Fügen Sie Ihren lokalen GPT Researcher MCP-Server zur Konfiguration hinzu
- Starten Sie Claude neu, um die Konfiguration anzuwenden
- Suchen oder erstellen Sie die Konfigurationsdatei unter
Vollständige Schritt-für-Schritt-Anleitungen finden Sie im Claude Desktop Integration Guide .
📝 Beispielverwendung mit Claude
🔧 Fehlerbehebung
Wenn beim Ausführen des MCP-Servers Probleme auftreten:
- Stellen Sie sicher, dass Ihre API-Schlüssel in der
.env
Datei korrekt eingestellt sind - Überprüfen Sie, ob Sie Python 3.11 oder höher verwenden (erforderlich für gpt-researcher >=0.12.16)
- Stellen Sie sicher, dass alle Abhängigkeiten korrekt installiert sind
- Überprüfen Sie die Serverprotokolle auf Fehlermeldungen
Wenn Sie Docker verwenden und Probleme auftreten:
- Überprüfen Sie, ob der Container ausgeführt wird:
docker ps | grep gpt-mcp-server
- Containerprotokolle prüfen:
docker logs gpt-mcp-server
- Bestätigen Sie, dass der Server an alle Schnittstellen gebunden ist. Die Protokolle sollten ein Abhören auf 0.0.0.0:8000 anzeigen.
- Wenn während des Builds Abhängigkeitsfehler auftreten:
- Stellen Sie sicher, dass Sie das aktualisierte Dockerfile mit Python 3.11 verwenden
- Versuchen Sie einen Neuaufbau mit dem Flag
--no-cache
:docker build --no-cache -t gpt-mcp-server .
- Überprüfen Sie, ob die Version von gpt-researcher in Ihrer Datei requirements.txt mit der Python-Version übereinstimmt.
Bei Problemen mit der lokalen Installation:
👣 Nächste Schritte
- Erkunden Sie die MCP-Protokolldokumentation, um besser zu verstehen, wie Sie mit Claude integrieren können
- Erfahren Sie mehr über die Kernfunktionen von GPT Researcher zur Verbesserung Ihrer Forschungsmöglichkeiten
- Weitere Konfigurationsoptionen finden Sie im Handbuch „Erweiterte Nutzung“
📄 Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE.
📞 Support / Kontakt
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Erweitert LLM-Anwendungen um umfassende autonome Web-Recherchefunktionen und liefert durch die Untersuchung und Validierung zahlreicher vertrauenswürdiger Quellen qualitativ hochwertigere Informationen als herkömmliche Suchtools.
Related MCP Servers
- AsecurityAlicenseAqualityIntegrates Tavily's search API with LLMs to provide advanced web search capabilities, including intelligent result summaries, domain filtering for quality control, and configurable search parameters.Last updated -3649JavaScriptMIT License
- -securityFlicense-qualityEnables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.Last updated -1Python
- -securityAlicense-qualityProvides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.Last updated -53PythonMIT License
- -securityAlicense-qualityEnables LLMs to autonomously retrieve and explore web content by fetching pages and recursively following links to a specified depth, particularly useful for learning about topics from documentation.Last updated -TypeScriptMIT License