Skip to main content
Glama

MCP_WolframAlpha

MIT License
16
  • Linux
  • Apple

MCP Wolfram Alpha (Server + Client)

Integrieren Sie Wolfram Alpha nahtlos in Ihre Chat-Anwendungen.

Dieses Projekt implementiert einen MCP-Server (Model Context Protocol), der für die Schnittstelle zur Wolfram Alpha API konzipiert ist. Chat-basierte Anwendungen können damit rechnerische Abfragen durchführen und strukturiertes Wissen abrufen, was erweiterte Konversationsfunktionen ermöglicht.

Enthalten ist ein MCP-Client-Beispiel, das Gemini über LangChain verwendet und zeigt, wie große Sprachmodelle mit dem MCP-Server verbunden werden, um Echtzeitinteraktionen mit der Wissens-Engine von Wolfram Alpha zu ermöglichen.


Merkmale

  • Wolfram|Alpha-Integration für Mathematik, Wissenschaft und Datenabfragen.
  • Modulare Architektur. Leicht erweiterbar, um zusätzliche APIs und Funktionen zu unterstützen.
  • Multi-Client-Unterstützung: Nahtlose Handhabung von Interaktionen von mehreren Clients oder Schnittstellen.
  • MCP-Client-Beispiel mit Gemini (über LangChain).
  • UI-Unterstützung mit Gradio für eine benutzerfreundliche Weboberfläche zur Interaktion mit Google AI und dem Wolfram Alpha MCP-Server.

Installation

Klonen Sie das Repo

git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha

Einrichten von Umgebungsvariablen

Erstellen Sie eine .env-Datei basierend auf dem Beispiel:

  • WOLFRAM_API_KEY=Ihre_Wolframalpha_App-ID
  • GeminiAPI=Ihr_Google_Gemini_API-Schlüssel (Optional, wenn Sie die Client-Methode unten verwenden.)

Installationsvoraussetzungen

pip install -r requirements.txt

Konfiguration

Zur Verwendung mit dem VSCode MCP-Server:

  1. Erstellen Sie eine Konfigurationsdatei unter .vscode/mcp.json in Ihrem Projektstamm.
  2. Verwenden Sie das in configs/vscode_mcp.json bereitgestellte Beispiel als Vorlage.
  3. Weitere Einzelheiten finden Sie im VSCode MCP Server Guide .

Zur Verwendung mit Claude Desktop:

{ "mcpServers": { "WolframAlphaServer": { "command": "python3", "args": [ "/path/to/src/core/server.py" ] } } }

Client-Verwendungsbeispiel

Dieses Projekt umfasst einen LLM-Client, der mit dem MCP-Server kommuniziert.

Mit Gradio UI ausführen
  • Erforderlich: GeminiAPI
  • Bietet eine lokale Weboberfläche zur Interaktion mit Google AI und Wolfram Alpha.
  • So führen Sie den Client direkt über die Befehlszeile aus:
python main.py --ui
Docker

So erstellen und führen Sie den Client in einem Docker-Container aus:

docker build -t wolframalphaui -f .devops/ui.Dockerfile . docker run wolframalphaui
Benutzeroberfläche
  • Intuitive, mit Gradio erstellte Benutzeroberfläche zur Interaktion mit Google AI (Gemini) und dem Wolfram Alpha MCP-Server.
  • Ermöglicht Benutzern das Wechseln zwischen Wolfram Alpha, Google AI (Gemini) und Abfrageverlauf.

Benutzeroberfläche

Als CLI-Tool ausführen
  • Erforderlich: GeminiAPI
  • So führen Sie den Client direkt über die Befehlszeile aus:
python main.py
Docker

So erstellen und führen Sie den Client in einem Docker-Container aus:

docker build -t wolframalpha -f .devops/llm.Dockerfile . docker run -it wolframalpha
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP_WolframAlpha

  1. Merkmale
    1. Installation
      1. Klonen Sie das Repo
      2. Einrichten von Umgebungsvariablen
      3. Installationsvoraussetzungen
      4. Konfiguration
    2. Client-Verwendungsbeispiel
      1. Mit Gradio UI ausführen
      2. Docker
      3. Benutzeroberfläche
      4. Als CLI-Tool ausführen
      5. Docker

    Related MCP Servers

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/akalaric/mcp-wolframalpha'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server