TypeScript
MIT License
将 Wolfram Alpha 无缝集成到您的聊天应用程序中。
该项目实现了一个 MCP(模型上下文协议)服务器,旨在与 Wolfram Alpha API 交互。它使基于聊天的应用程序能够执行计算查询并检索结构化知识,从而实现高级对话功能。
其中包括一个通过 LangChain 利用 Gemini 的 MCP-Client 示例,演示如何将大型语言模型连接到 MCP 服务器,以便与 Wolfram Alpha 的知识引擎进行实时交互。
根据示例创建一个 .env 文件:
要与 VSCode MCP 服务器一起使用:
.vscode/mcp.json
。configs/vscode_mcp.json
中提供的示例作为模板。与 Claude Desktop 一起使用:
该项目包括一个与 MCP 服务器通信的 LLM 客户端。
要在 Docker 容器内构建并运行客户端:
要在 Docker 容器内构建并运行客户端:
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
MCP_WolframAlpha
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/akalaric/mcp-wolframalpha'
If you have feedback or need assistance with the MCP directory API, please join our Discord server