MCP_WolframAlpha

MIT License
9
  • Linux
  • Apple
Integrations
  • Supports integration with Google's Gemini model via LangChain to create an example client that interacts with the MCP server for real-time Wolfram Alpha queries

  • Utilizes LangChain to connect large language models (specifically Gemini) to the Wolfram Alpha API, facilitating the creation of AI clients that can interact with the MCP server

  • Allows chat applications to perform computational queries and retrieve structured knowledge through the Wolfram Alpha API, enabling advanced mathematical, scientific, and data analysis capabilities

MCP Wolfram Alpha (Client + Server)

Integrieren Sie Wolfram Alpha nahtlos in Ihre Chat-Anwendungen.

Dieses Projekt implementiert einen MCP-Server (Model Context Protocol), der für die Schnittstelle zur Wolfram Alpha API konzipiert ist. Chat-basierte Anwendungen können damit rechnerische Abfragen durchführen und strukturiertes Wissen abrufen, was erweiterte Konversationsfunktionen ermöglicht.

Enthalten ist ein MCP-Client-Beispiel, das Gemini über LangChain verwendet und zeigt, wie große Sprachmodelle mit dem MCP-Server verbunden werden, um Echtzeitinteraktionen mit der Wissens-Engine von Wolfram Alpha zu ermöglichen.


Merkmale

  • Wolfram|Alpha-Integration für Mathematik, Wissenschaft und Datenabfragen.
  • Modulare Architektur. Leicht erweiterbar, um zusätzliche APIs und Funktionen zu unterstützen.
  • Multi-Client-Unterstützung: Nahtlose Handhabung von Interaktionen von mehreren Clients oder Schnittstellen.
  • MCP-Client-Beispiel mit Gemini (über LangChain).

Installation

Klonen Sie das Repo

git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha

Einrichten von Umgebungsvariablen

Erstellen Sie eine .env-Datei basierend auf dem Beispiel:

  • WOLFRAM_API_KEY=Ihre_Wolframalpha_App-ID
  • GeminiAPI=Ihr_Google_Gemini_API-Schlüssel (Optional, wenn Sie die Client-Methode unten verwenden.)

Installationsvoraussetzungen

pip install -r requirements.txt

Konfiguration

Zur Verwendung mit dem VSCode MCP-Server:

  1. Erstellen Sie eine Konfigurationsdatei unter .vscode/mcp.json in Ihrem Projektstamm.
  2. Verwenden Sie das in configs/vscode_mcp.json bereitgestellte Beispiel als Vorlage.
  3. Weitere Einzelheiten finden Sie im VSCode MCP Server Guide .

Zur Verwendung mit Claude Desktop:

{ "mcpServers": { "WolframAlphaServer": { "command": "python3", "args": [ "/path/to/src/core/server.py" ] } } }

Client-Verwendungsbeispiel

Dieses Projekt umfasst einen LLM-Client, der mit dem MCP-Server kommuniziert.

Als CLI-Tool ausführen
  • Erforderlich: GeminiAPI
  • So führen Sie den Client direkt über die Befehlszeile aus:
python main.py
Docker

So erstellen und führen Sie den Client in einem Docker-Container aus:

docker build -t wolframalpha -f .devops/llm.Dockerfile . docker run -it wolframalpha
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP_WolframAlpha

  1. Merkmale
    1. Installation
      1. Klonen Sie das Repo
      2. Einrichten von Umgebungsvariablen
      3. Installationsvoraussetzungen
      4. Konfiguration
    2. Client-Verwendungsbeispiel
      1. Als CLI-Tool ausführen
      2. Docker

    Related MCP Servers

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/ricocf/mcp-wolframalpha'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server