remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Provides access to WolframAlpha's LLM API, allowing users to query WolframAlpha with natural language questions, answer mathematical questions, and retrieve factual information about science, physics, history, geography, and more.
WolframAlpha LLM MCP 服务器
提供对 WolframAlpha 的 LLM API 访问的模型上下文协议 (MCP) 服务器。https ://products.wolframalpha.com/llm-api/documentation
特征
- 使用自然语言问题查询 WolframAlpha 的 LLM API
- 回答复杂的数学问题
- 查询有关科学、物理、历史、地理等的事实
- 获取针对 LLM 消费优化的结构化响应
- 支持简化答案和分部分的详细回复
可用工具
ask_llm
:向 WolframAlpha 提问并获得结构化的 llm 友好回复get_simple_answer
:获取简化答案validate_key
WolframAlpha API 密钥
安装
Copy
配置
- 从developer.wolframalpha.com获取您的WolframAlpha API密钥
- 将其添加到 VSCode 设置中的 Cline MCP 设置文件中(例如 ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json):
Copy
发展
设置测试
测试使用真实的 API 调用来确保响应准确。运行测试的步骤如下:
- 复制示例环境文件:Copy
- 编辑
.env
并添加您的 WolframAlpha API 密钥:注意:Copy.env
文件被 gitignored 以防止提交敏感信息。 - 运行测试:Copy
建筑
Copy
执照
麻省理工学院
You must be authenticated.
支持查询 WolframAlpha 的 LLM API 以获取自然语言问题,提供针对 LLM 使用优化的结构化和简化的答案。