MCP Wolfram Alpha (サーバー + クライアント)
Wolfram Alpha をチャット アプリケーションにシームレスに統合します。
このプロジェクトは、Wolfram Alpha APIとのインターフェースとして設計されたMCP(Model Context Protocol)サーバーを実装します。これにより、チャットベースのアプリケーションは計算クエリを実行し、構造化された知識を取得できるようになり、高度な会話機能を実現できます。
LangChain 経由で Gemini を利用する MCP クライアントの例が含まれており、大規模な言語モデルを MCP サーバーに接続して、Wolfram Alpha の知識エンジンとリアルタイムでやりとりする方法が示されています。
特徴
数学、科学、データクエリのためのWolfram|Alpha 統合。
モジュラー アーキテクチャ追加の API と機能をサポートするために簡単に拡張できます。
マルチクライアント サポート複数のクライアントまたはインターフェースからのやり取りをシームレスに処理します。
Gemini を使用したMCP クライアントの例(LangChain 経由)。
Google AI および Wolfram Alpha MCP サーバーと対話するためのユーザーフレンドリーな Web インターフェースとして Gradio を使用したUI サポート。
インストール
リポジトリをクローンする
環境変数を設定する
例に基づいて .env ファイルを作成します。
WOLFRAM_API_KEY=あなたのwolframalpha_appid
GeminiAPI=your_google_gemini_api_key (以下のクライアント方式を使用する場合はオプション)
インストール要件
構成
VSCode MCP サーバーで使用するには:
プロジェクト ルートの
.vscode/mcp.jsonに構成ファイルを作成します。configs/vscode_mcp.jsonで提供されている例をテンプレートとして使用します。詳細については、 VSCode MCP サーバー ガイドを参照してください。
Claude Desktop で使用するには:
クライアントの使用例
このプロジェクトには、MCP サーバーと通信する LLM クライアントが含まれています。
Gradio UIで実行
必須: GeminiAPI
Google AI および Wolfram Alpha と対話するためのローカル Web インターフェースを提供します。
コマンドラインからクライアントを直接実行するには:
ドッカー
Docker コンテナ内でクライアントをビルドして実行するには:
UI
Gradio で構築された直感的なインターフェースで、Google AI (Gemini) と Wolfram Alpha MCP サーバーの両方と対話できます。
ユーザーは Wolfram Alpha、Google AI (Gemini)、クエリ履歴を切り替えることができます。

CLIツールとして実行
必須: GeminiAPI
コマンドラインからクライアントを直接実行するには:
ドッカー
Docker コンテナ内でクライアントをビルドして実行するには:
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
MCP_Wolframアルファ
Related MCP Servers
- MIT License
- MIT License
- MIT License