GPT Researcher MCP Server

by assafelovic
Integrations
  • Repository hosting for the MCP server code, accessed through cloning for installation.

  • Supported as a web retriever option for the quick_search tool, allowing search queries through Google's search engine.

  • Integrates with OpenAI's API for powering the research functionality, requiring an API key for operation.

🔍 GPT Researcher MCP-Server

Warum GPT Researcher MCP?

Während LLM-Apps mit MCP auf Websuchtools zugreifen können, liefert GPT Researcher MCP umfassende Rechercheergebnisse. Standardsuchtools liefern Rohergebnisse, die manuell gefiltert werden müssen, oft irrelevante Quellen enthalten und Platz im Kontextfenster verschwenden.

GPT Researcher durchsucht und validiert selbstständig zahlreiche Quellen und konzentriert sich dabei ausschließlich auf relevante, vertrauenswürdige und aktuelle Informationen. Obwohl es etwas langsamer als die Standardsuche ist (ca. 30 Sekunden Wartezeit), bietet es:

  • ✨ Hochwertigere Informationen
  • 📊 Optimierte Kontextnutzung
  • 🔎 Umfassende Ergebnisse
  • 🧠 Bessere Argumentation für LLMs

💻 Claude Desktop-Demo

https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8

Ressourcen

  • research_resource : Erhalten Sie durch Recherche Webressourcen, die mit einer bestimmten Aufgabe in Zusammenhang stehen.

Primäre Werkzeuge

  • deep_research : Führt eine Deep-Web-Recherche zu einem Thema durch und findet die zuverlässigsten und relevantesten Informationen
  • quick_search : Führt eine schnelle Websuche durch, die auf Geschwindigkeit statt Qualität optimiert ist und Suchergebnisse mit Snippets liefert. Unterstützt alle GPTR-fähigen Web-Retriever wie Tavily, Bing, Google usw. Erfahren Sie hier mehr.
  • write_report : Erstellen Sie einen Bericht basierend auf den Forschungsergebnissen
  • get_research_sources : Holen Sie sich die in der Forschung verwendeten Quellen
  • get_research_context : Holen Sie sich den vollständigen Kontext der Forschung

Eingabeaufforderungen

  • research_query : Erstellen Sie eine Eingabeaufforderung für eine Forschungsabfrage

Voraussetzungen

Stellen Sie vor dem Ausführen des MCP-Servers sicher, dass Sie über Folgendes verfügen:

  1. Python 3.11 oder höher installiert
    • Wichtig : GPT Researcher >=0.12.16 erfordert Python 3.11+
  2. API-Schlüssel für die Dienste, die Sie verwenden möchten:

⚙️ Installation

  1. Klonen Sie das GPT Researcher-Repository:
git clone https://github.com/assafelovic/gpt-researcher.git cd gpt-researcher
  1. Installieren Sie die gptr-mcp-Abhängigkeiten:
cd gptr-mcp pip install -r requirements.txt
  1. Richten Sie Ihre Umgebungsvariablen ein:
    • Kopieren Sie die Datei .env.example , um eine neue Datei mit dem Namen .env : GXP3 zu erstellen.
    • Bearbeiten Sie die .env Datei, fügen Sie Ihre API-Schlüssel hinzu und konfigurieren Sie andere Einstellungen: GXP4

Sie können Ihrer GPT Researcher-Konfiguration auch beliebige andere Umgebungsvariablen hinzufügen.

🚀 Ausführen des MCP-Servers

Sie können den MCP-Server auf verschiedene Arten ausführen:

Methode 1: Direkt mit Python

python server.py

Methode 2: Verwenden der MCP-CLI (falls installiert)

mcp run server.py

Methode 3: Verwenden von Docker (für die Produktion empfohlen)

Option A: Standalone-Modus

Dies ist die einfachste Möglichkeit, den Server auszuführen, wenn Sie keine Verbindung zu anderen Containern herstellen müssen:

# Build and run with docker-compose docker-compose -f docker-compose.standalone.yml up -d # Or manually: docker build -t gpt-mcp-server . docker run -d \ --name gpt-mcp-server \ -p 8000:8000 \ --env-file .env \ gpt-mcp-server
Option B: Mit Netzwerk für n8n-Integration

Wenn Sie eine Verbindung zu anderen Diensten wie n8n im selben Netzwerk herstellen müssen:

# Create the network if it doesn't exist docker network create n8n-mcp-net # Build and run with docker-compose docker-compose up -d # Or manually: docker build -t gpt-mcp-server . docker run -d \ --name gpt-mcp-server \ --network n8n-mcp-net \ -p 8000:8000 \ --env-file .env \ gpt-mcp-server

Hinweis : Das Docker-Image verwendet Python 3.11, um die Anforderungen von gpt-researcher >=0.12.16 zu erfüllen. Sollten während des Builds Fehler auftreten, stellen Sie sicher, dass Sie die neueste Docker-Datei aus diesem Repository verwenden.

Sobald der Server läuft, wird eine Ausgabe angezeigt, die anzeigt, dass er bereit ist, Verbindungen anzunehmen. Sie können die Funktion folgendermaßen überprüfen:

  1. Zugriff auf die OpenAPI-Dokumente unter http://localhost:8000/docs
  2. Testen des MCP-Endpunkts unter http://localhost:8000/mcp

Integration mit Claude

Sie können Ihren MCP-Server mit Claude integrieren, indem Sie Folgendes verwenden:

Claude Desktop Integration – Zur Verwendung mit der Claude-Desktopanwendung auf dem Mac

Für detaillierte Anweisungen folgen Sie dem Link oben.

💻 Claude Desktop-Integration

Um Ihren lokal laufenden MCP-Server mit Claude für Mac zu integrieren, müssen Sie:

  1. Stellen Sie sicher, dass der MCP-Server installiert und ausgeführt wird
  2. Claude Desktop konfigurieren:
    • Suchen oder erstellen Sie die Konfigurationsdatei unter ~/Library/Application Support/Claude/claude_desktop_config.json
    • Fügen Sie Ihren lokalen GPT Researcher MCP-Server zur Konfiguration hinzu
    • Starten Sie Claude neu, um die Konfiguration anzuwenden

Vollständige Schritt-für-Schritt-Anleitungen finden Sie im Claude Desktop Integration Guide .

📝 Beispielverwendung mit Claude

User: I'm considering investing in NVIDIA. Can you research the current state of the company, recent stock performance, latest product announcements, and analyst opinions? Claude: I'll help you research NVIDIA for investment purposes. This will take a moment as I conduct comprehensive research to find the most up-to-date information about their stock performance, recent developments, and expert analysis. [Claude uses conduct_research tool - this takes 30-40 seconds] Claude: Based on my research, here's a comprehensive analysis of NVIDIA's current state: ## NVIDIA (NVDA) Current Status ### Recent Stock Performance - Current price: $942.89 (as of my research) - YTD performance: +90.4% - 52-week range: $460.30 - $974.00 - Market cap: ~$2.32 trillion ### Recent Key Developments 1. **Blackwell AI Platform**: At GTC 2024, NVIDIA unveiled the Blackwell architecture, their next-generation AI chip platform promising 4x performance improvement over Hopper. Major cloud providers (AWS, Google, Microsoft) have already committed to integrating Blackwell. 2. **Q1 FY2025 Earnings (May 2024)**: - Revenue: $26.0 billion (+262% YoY) - Data Center revenue: $22.6 billion (+427% YoY) - Gross margin: 78.4% - Announced 10-for-1 stock split effective June 7, 2024 3. **Supply Chain Expansion**: Increased investments in manufacturing capacity with TSMC to address ongoing chip shortages for their high-demand AI GPUs. ### Analyst Consensus - Strong Buy consensus with 37 analysts rating it "Buy," 5 "Hold," and 0 "Sell" - Average price target: $1,042 (post-split adjusted: $104.20) - Key bull thesis: Continued AI infrastructure spending and NVIDIA's dominant position in AI chips - Key bear concerns: Valuation, potential competition from AMD, Intel, and custom silicon from tech giants ### Industry Position - Dominant in AI GPU market with estimated 80-90% market share - Expanding ecosystem through CUDA software platform and industry partnerships - Diversifying beyond chips with DGX Cloud, AI software platforms, and automotive solutions

🔧 Fehlerbehebung

Wenn beim Ausführen des MCP-Servers Probleme auftreten:

  1. Stellen Sie sicher, dass Ihre API-Schlüssel in der .env Datei korrekt eingestellt sind
  2. Überprüfen Sie, ob Sie Python 3.11 oder höher verwenden (erforderlich für gpt-researcher >=0.12.16)
  3. Stellen Sie sicher, dass alle Abhängigkeiten korrekt installiert sind
  4. Überprüfen Sie die Serverprotokolle auf Fehlermeldungen

Wenn Sie Docker verwenden und Probleme auftreten:

  1. Überprüfen Sie, ob der Container ausgeführt wird: docker ps | grep gpt-mcp-server
  2. Containerprotokolle prüfen: docker logs gpt-mcp-server
  3. Bestätigen Sie, dass der Server an alle Schnittstellen gebunden ist. Die Protokolle sollten ein Abhören auf 0.0.0.0:8000 anzeigen.
  4. Wenn während des Builds Abhängigkeitsfehler auftreten:
    • Stellen Sie sicher, dass Sie das aktualisierte Dockerfile mit Python 3.11 verwenden
    • Versuchen Sie einen Neuaufbau mit dem Flag --no-cache : docker build --no-cache -t gpt-mcp-server .
    • Überprüfen Sie, ob die Version von gpt-researcher in Ihrer Datei requirements.txt mit der Python-Version übereinstimmt.

Bei Problemen mit der lokalen Installation:

# Check your Python version (must be 3.11+) python --version # Update pip to the latest version pip install --upgrade pip # If you're using a virtual environment, create a new one with Python 3.11 python3.11 -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate

👣 Nächste Schritte

📄 Lizenz

Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE.

📞 Support / Kontakt

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Erweitert LLM-Anwendungen um umfassende autonome Web-Recherchefunktionen und liefert durch die Untersuchung und Validierung zahlreicher vertrauenswürdiger Quellen qualitativ hochwertigere Informationen als herkömmliche Suchtools.

  1. Warum GPT Researcher MCP?
    1. 💻 Claude Desktop-Demo
      1. Ressourcen
      2. Primäre Werkzeuge
      3. Eingabeaufforderungen
    2. Voraussetzungen
      1. ⚙️ Installation
        1. 🚀 Ausführen des MCP-Servers
          1. Methode 1: Direkt mit Python
          2. Methode 2: Verwenden der MCP-CLI (falls installiert)
          3. Methode 3: Verwenden von Docker (für die Produktion empfohlen)
        2. Integration mit Claude
          1. 💻 Claude Desktop-Integration
            1. 📝 Beispielverwendung mit Claude
              1. 🔧 Fehlerbehebung
                1. 👣 Nächste Schritte
                  1. 📄 Lizenz
                    1. 📞 Support / Kontakt

                      Related MCP Servers

                      • A
                        security
                        A
                        license
                        A
                        quality
                        Integrates Tavily's search API with LLMs to provide advanced web search capabilities, including intelligent result summaries, domain filtering for quality control, and configurable search parameters.
                        Last updated -
                        3
                        64
                        9
                        JavaScript
                        MIT License
                        • Linux
                      • -
                        security
                        F
                        license
                        -
                        quality
                        Enables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.
                        Last updated -
                        1
                        Python
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
                        Last updated -
                        53
                        Python
                        MIT License
                        • Linux
                        • Apple
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Enables LLMs to autonomously retrieve and explore web content by fetching pages and recursively following links to a specified depth, particularly useful for learning about topics from documentation.
                        Last updated -
                        TypeScript
                        MIT License

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/assafelovic/gptr-mcp'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server