Supports integration with Google's Gemini model via LangChain to create an example client that interacts with the MCP server for real-time Wolfram Alpha queries
Utilizes LangChain to connect large language models (specifically Gemini) to the Wolfram Alpha API, facilitating the creation of AI clients that can interact with the MCP server
Allows chat applications to perform computational queries and retrieve structured knowledge through the Wolfram Alpha API, enabling advanced mathematical, scientific, and data analysis capabilities
MCP Wolfram Alpha (Client + Server)
Integrieren Sie Wolfram Alpha nahtlos in Ihre Chat-Anwendungen.
Dieses Projekt implementiert einen MCP-Server (Model Context Protocol), der für die Schnittstelle zur Wolfram Alpha API konzipiert ist. Chat-basierte Anwendungen können damit rechnerische Abfragen durchführen und strukturiertes Wissen abrufen, was erweiterte Konversationsfunktionen ermöglicht.
Enthalten ist ein MCP-Client-Beispiel, das Gemini über LangChain verwendet und zeigt, wie große Sprachmodelle mit dem MCP-Server verbunden werden, um Echtzeitinteraktionen mit der Wissens-Engine von Wolfram Alpha zu ermöglichen.
Merkmale
- Wolfram|Alpha-Integration für Mathematik, Wissenschaft und Datenabfragen.
- Modulare Architektur. Leicht erweiterbar, um zusätzliche APIs und Funktionen zu unterstützen.
- Multi-Client-Unterstützung: Nahtlose Handhabung von Interaktionen von mehreren Clients oder Schnittstellen.
- MCP-Client-Beispiel mit Gemini (über LangChain).
Installation
Klonen Sie das Repo
Einrichten von Umgebungsvariablen
Erstellen Sie eine .env-Datei basierend auf dem Beispiel:
- WOLFRAM_API_KEY=Ihre_Wolframalpha_App-ID
- GeminiAPI=Ihr_Google_Gemini_API-Schlüssel (Optional, wenn Sie die Client-Methode unten verwenden.)
Installationsvoraussetzungen
Konfiguration
Zur Verwendung mit dem VSCode MCP-Server:
- Erstellen Sie eine Konfigurationsdatei unter
.vscode/mcp.json
in Ihrem Projektstamm. - Verwenden Sie das in
configs/vscode_mcp.json
bereitgestellte Beispiel als Vorlage. - Weitere Einzelheiten finden Sie im VSCode MCP Server Guide .
Zur Verwendung mit Claude Desktop:
Client-Verwendungsbeispiel
Dieses Projekt umfasst einen LLM-Client, der mit dem MCP-Server kommuniziert.
Als CLI-Tool ausführen
- Erforderlich: GeminiAPI
- So führen Sie den Client direkt über die Befehlszeile aus:
Docker
So erstellen und führen Sie den Client in einem Docker-Container aus:
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
MCP_WolframAlpha
Related MCP Servers
- TypeScriptMIT License
- JavaScript
- GoMIT License
- TypeScriptApache 2.0