MCP_WolframAlpha

MIT License
9
  • Linux
  • Apple
Integrations
  • Supports integration with Google's Gemini model via LangChain to create an example client that interacts with the MCP server for real-time Wolfram Alpha queries

  • Utilizes LangChain to connect large language models (specifically Gemini) to the Wolfram Alpha API, facilitating the creation of AI clients that can interact with the MCP server

  • Allows chat applications to perform computational queries and retrieve structured knowledge through the Wolfram Alpha API, enabling advanced mathematical, scientific, and data analysis capabilities

MCP Wolfram Alpha (Cliente + Servidor)

Integre perfectamente Wolfram Alpha en sus aplicaciones de chat.

Este proyecto implementa un servidor MCP (Protocolo de Contexto de Modelo) diseñado para interactuar con la API Wolfram Alpha. Permite que las aplicaciones basadas en chat realicen consultas computacionales y recuperen conocimiento estructurado, facilitando así capacidades conversacionales avanzadas.

Se incluye un ejemplo de MCP-Client que utiliza Gemini a través de LangChain, y que demuestra cómo conectar modelos de lenguaje grandes al servidor MCP para interacciones en tiempo real con el motor de conocimiento de Wolfram Alpha.


Características

  • Integración de Wolfram|Alpha para consultas de matemáticas, ciencias y datos.
  • Arquitectura modular Fácilmente ampliable para soportar API y funcionalidades adicionales.
  • Soporte multicliente Gestione sin problemas las interacciones de múltiples clientes o interfaces.
  • Ejemplo de cliente MCP que utiliza Gemini (a través de LangChain).

Instalación

Clonar el repositorio

git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha

Configurar variables de entorno

Cree un archivo .env basado en el ejemplo:

  • WOLFRAM_API_KEY=su_id_de_aplicación_wolframalpha
  • GeminiAPI=your_google_gemini_api_key (opcional si se utiliza el método Cliente a continuación).

Requisitos de instalación

pip install -r requirements.txt

Configuración

Para usar con el servidor MCP de VSCode:

  1. Cree un archivo de configuración en .vscode/mcp.json en la raíz de su proyecto.
  2. Utilice el ejemplo proporcionado en configs/vscode_mcp.json como plantilla.
  3. Para obtener más detalles, consulte la Guía del servidor VSCode MCP .

Para utilizar con Claude Desktop:

{ "mcpServers": { "WolframAlphaServer": { "command": "python3", "args": [ "/path/to/src/core/server.py" ] } } }

Ejemplo de uso del cliente

Este proyecto incluye un cliente LLM que se comunica con el servidor MCP.

Ejecutar como herramienta CLI
  • Requerido: GeminiAPI
  • Para ejecutar el cliente directamente desde la línea de comandos:
python main.py
Estibador

Para construir y ejecutar el cliente dentro de un contenedor Docker:

docker build -t wolframalpha -f .devops/llm.Dockerfile . docker run -it wolframalpha
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP_WolframAlpha

  1. Características
    1. Instalación
      1. Clonar el repositorio
      2. Configurar variables de entorno
      3. Requisitos de instalación
      4. Configuración
    2. Ejemplo de uso del cliente
      1. Ejecutar como herramienta CLI
      2. Estibador

    Related MCP Servers

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/ricocf/mcp-wolframalpha'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server