MCP_WolframAlpha

MIT License
9
  • Linux
  • Apple
Integrations
  • Supports integration with Google's Gemini model via LangChain to create an example client that interacts with the MCP server for real-time Wolfram Alpha queries

  • Utilizes LangChain to connect large language models (specifically Gemini) to the Wolfram Alpha API, facilitating the creation of AI clients that can interact with the MCP server

  • Allows chat applications to perform computational queries and retrieve structured knowledge through the Wolfram Alpha API, enabling advanced mathematical, scientific, and data analysis capabilities

MCP Wolfram Alpha (Клиент + Сервер)

Легко интегрируйте Wolfram Alpha в ваши чат-приложения.

Этот проект реализует сервер MCP (Model Context Protocol), разработанный для взаимодействия с API Wolfram Alpha. Он позволяет приложениям на основе чата выполнять вычислительные запросы и извлекать структурированные знания, облегчая расширенные возможности общения.

В комплект входит пример MCP-клиента, использующего Gemini через LangChain, демонстрирующий, как подключать большие языковые модели к серверу MCP для взаимодействия в реальном времени с ядром знаний Wolfram Alpha.


Функции

  • Wolfram|Alpha Integration для математических, научных и информационных запросов.
  • Модульная архитектура Легко расширяется для поддержки дополнительных API и функций.
  • Поддержка нескольких клиентов. Удобная обработка взаимодействий с несколькими клиентами или интерфейсами.
  • Пример MCP-клиента с использованием Gemini (через LangChain).

Установка

Клонировать репозиторий

git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha

Настройка переменных среды

Создайте файл .env на основе примера:

  • WOLFRAM_API_KEY=your_wolframalpha_appid
  • GeminiAPI=your_google_gemini_api_key (Необязательно, если используется клиентский метод, описанный ниже.)

Требования к установке

pip install -r requirements.txt

Конфигурация

Для использования с сервером VSCode MCP:

  1. Создайте файл конфигурации .vscode/mcp.json в корневом каталоге вашего проекта.
  2. Используйте пример, представленный в configs/vscode_mcp.json в качестве шаблона.
  3. Более подробную информацию можно найти в Руководстве по серверу VSCode MCP .

Для использования с Claude Desktop:

{ "mcpServers": { "WolframAlphaServer": { "command": "python3", "args": [ "/path/to/src/core/server.py" ] } } }

Пример использования клиентом

Этот проект включает в себя клиент LLM, который взаимодействует с сервером MCP.

Запустить как CLI-инструмент
  • Требуется: GeminiAPI
  • Чтобы запустить клиент непосредственно из командной строки:
python main.py
Докер

Чтобы собрать и запустить клиент внутри контейнера Docker:

docker build -t wolframalpha -f .devops/llm.Dockerfile . docker run -it wolframalpha
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP_WolframAlpha

  1. Функции
    1. Установка
      1. Клонировать репозиторий
      2. Настройка переменных среды
      3. Требования к установке
      4. Конфигурация
    2. Пример использования клиентом
      1. Запустить как CLI-инструмент
      2. Докер

    Related MCP Servers

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/ricocf/mcp-wolframalpha'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server