remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Provides access to WolframAlpha's LLM API, allowing users to query WolframAlpha with natural language questions, answer mathematical questions, and retrieve factual information about science, physics, history, geography, and more.
WolframAlpha LLM MCP サーバー
WolframAlpha の LLM API へのアクセスを提供する Model Context Protocol (MCP) サーバー。https ://products.wolframalpha.com/llm-api/documentation
特徴
- WolframAlphaのLLM APIを自然言語の質問でクエリする
- 複雑な数学の質問に答える
- 科学、物理学、歴史、地理などに関する事実を検索します
- LLM の消費に最適化された構造化された回答を入手
- 簡略化された回答とセクション付きの詳細な回答をサポート
利用可能なツール
ask_llm
: WolframAlphaに質問して、構造化されたllmフレンドリーな回答を得るget_simple_answer
: 簡略化された回答を取得するvalidate_key
: WolframAlpha APIキーを検証する
インストール
Copy
構成
- developer.wolframalpha.comから WolframAlpha API キーを取得します。
- VSCode の設定内の Cline MCP 設定ファイルに追加します (例: ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json):
Copy
発達
テストの設定
テストでは実際のAPI呼び出しを使用し、正確なレスポンスを保証します。テストを実行するには、以下の手順に従ってください。
- サンプル環境ファイルをコピーします。Copy
.env
を編集し、WolframAlpha API キーを追加します。注: 機密情報のコミットを防ぐため、Copy.env
ファイルは gitignored されます。- テストを実行します。Copy
建物
Copy
ライセンス
マサチューセッツ工科大学
You must be authenticated.
WolframAlpha の LLM API に対して自然言語の質問を照会できるようにし、LLM の使用に最適化された構造化された簡略化された回答を提供します。