Skip to main content
Glama

MCP Wolfram Alpha (Сервер + Клиент)

Легко интегрируйте Wolfram Alpha в ваши чат-приложения.

Этот проект реализует сервер MCP (Model Context Protocol), разработанный для взаимодействия с API Wolfram Alpha. Он позволяет приложениям на основе чата выполнять вычислительные запросы и извлекать структурированные знания, облегчая расширенные возможности общения.

В комплект входит пример MCP-клиента, использующего Gemini через LangChain, демонстрирующий, как подключать большие языковые модели к серверу MCP для взаимодействия в реальном времени с ядром знаний Wolfram Alpha.


Функции

  • Wolfram|Alpha Integration для математических, научных и информационных запросов.

  • Модульная архитектура Легко расширяется для поддержки дополнительных API и функций.

  • Поддержка нескольких клиентов. Удобная обработка взаимодействий с несколькими клиентами или интерфейсами.

  • Пример MCP-клиента с использованием Gemini (через LangChain).

  • Поддержка пользовательского интерфейса с использованием Gradio для удобного веб-интерфейса взаимодействия с Google AI и сервером Wolfram Alpha MCP.


Related MCP server: Maya MCP

Установка

Клонировать репозиторий

git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha

Настройка переменных среды

Создайте файл .env на основе примера:

  • WOLFRAM_API_KEY=your_wolframalpha_appid

  • GeminiAPI=your_google_gemini_api_key (Необязательно, если используется клиентский метод, описанный ниже.)

Требования к установке

pip install -r requirements.txt

Конфигурация

Для использования с сервером VSCode MCP:

  1. Создайте файл конфигурации .vscode/mcp.json в корневом каталоге вашего проекта.

  2. Используйте пример, представленный в configs/vscode_mcp.json в качестве шаблона.

  3. Более подробную информацию можно найти в Руководстве по серверу VSCode MCP .

Для использования с Claude Desktop:

{ "mcpServers": { "WolframAlphaServer": { "command": "python3", "args": [ "/path/to/src/core/server.py" ] } } }

Пример использования клиентом

Этот проект включает в себя клиент LLM, который взаимодействует с сервером MCP.

Запуск с помощью Gradio UI

  • Требуется: GeminiAPI

  • Предоставляет локальный веб-интерфейс для взаимодействия с Google AI и Wolfram Alpha.

  • Чтобы запустить клиент непосредственно из командной строки:

python main.py --ui

Докер

Чтобы собрать и запустить клиент внутри контейнера Docker:

docker build -t wolframalphaui -f .devops/ui.Dockerfile . docker run wolframalphaui

Пользовательский интерфейс

  • Интуитивно понятный интерфейс, созданный с помощью Gradio для взаимодействия как с Google AI (Gemini), так и с сервером Wolfram Alpha MCP.

  • Позволяет пользователям переключаться между Wolfram Alpha, Google AI (Gemini) и историей запросов.

Пользовательский интерфейс

Запустить как CLI-инструмент

  • Требуется: GeminiAPI

  • Чтобы запустить клиент непосредственно из командной строки:

python main.py

Докер

Чтобы собрать и запустить клиент внутри контейнера Docker:

docker build -t wolframalpha -f .devops/llm.Dockerfile . docker run -it wolframalpha
-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/akalaric/mcp-wolframalpha'

If you have feedback or need assistance with the MCP directory API, please join our Discord server