Supports integration with Google's Gemini model via LangChain to create an example client that interacts with the MCP server for real-time Wolfram Alpha queries
Utilizes LangChain to connect large language models (specifically Gemini) to the Wolfram Alpha API, facilitating the creation of AI clients that can interact with the MCP server
Allows chat applications to perform computational queries and retrieve structured knowledge through the Wolfram Alpha API, enabling advanced mathematical, scientific, and data analysis capabilities
MCP Wolfram Alpha (Клиент + Сервер)
Легко интегрируйте Wolfram Alpha в ваши чат-приложения.
Этот проект реализует сервер MCP (Model Context Protocol), разработанный для взаимодействия с API Wolfram Alpha. Он позволяет приложениям на основе чата выполнять вычислительные запросы и извлекать структурированные знания, облегчая расширенные возможности общения.
В комплект входит пример MCP-клиента, использующего Gemini через LangChain, демонстрирующий, как подключать большие языковые модели к серверу MCP для взаимодействия в реальном времени с ядром знаний Wolfram Alpha.
Функции
- Wolfram|Alpha Integration для математических, научных и информационных запросов.
- Модульная архитектура Легко расширяется для поддержки дополнительных API и функций.
- Поддержка нескольких клиентов. Удобная обработка взаимодействий с несколькими клиентами или интерфейсами.
- Пример MCP-клиента с использованием Gemini (через LangChain).
Установка
Клонировать репозиторий
Настройка переменных среды
Создайте файл .env на основе примера:
- WOLFRAM_API_KEY=your_wolframalpha_appid
- GeminiAPI=your_google_gemini_api_key (Необязательно, если используется клиентский метод, описанный ниже.)
Требования к установке
Конфигурация
Для использования с сервером VSCode MCP:
- Создайте файл конфигурации
.vscode/mcp.json
в корневом каталоге вашего проекта. - Используйте пример, представленный в
configs/vscode_mcp.json
в качестве шаблона. - Более подробную информацию можно найти в Руководстве по серверу VSCode MCP .
Для использования с Claude Desktop:
Пример использования клиентом
Этот проект включает в себя клиент LLM, который взаимодействует с сервером MCP.
Запустить как CLI-инструмент
- Требуется: GeminiAPI
- Чтобы запустить клиент непосредственно из командной строки:
Докер
Чтобы собрать и запустить клиент внутри контейнера Docker:
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
MCP_WolframAlpha
Related MCP Servers
- TypeScriptMIT License
- JavaScript
- GoMIT License
- TypeScriptApache 2.0