Skip to main content
Glama

MCP_WolframAlpha

MIT License
16
  • Linux
  • Apple

MCP Wolfram Alpha (Servidor + Cliente)

Integre perfectamente Wolfram Alpha en sus aplicaciones de chat.

Este proyecto implementa un servidor MCP (Protocolo de Contexto de Modelo) diseñado para interactuar con la API Wolfram Alpha. Permite que las aplicaciones basadas en chat realicen consultas computacionales y recuperen conocimiento estructurado, facilitando así capacidades conversacionales avanzadas.

Se incluye un ejemplo de MCP-Client que utiliza Gemini a través de LangChain, y que demuestra cómo conectar modelos de lenguaje grandes al servidor MCP para interacciones en tiempo real con el motor de conocimiento de Wolfram Alpha.


Características

  • Integración de Wolfram|Alpha para consultas de matemáticas, ciencias y datos.
  • Arquitectura modular Fácilmente ampliable para soportar API y funcionalidades adicionales.
  • Soporte multicliente Gestione sin problemas las interacciones de múltiples clientes o interfaces.
  • Ejemplo de cliente MCP que utiliza Gemini (a través de LangChain).
  • Soporte de interfaz de usuario mediante Gradio para una interfaz web fácil de usar para interactuar con Google AI y el servidor Wolfram Alpha MCP.

Instalación

Clonar el repositorio

git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha

Configurar variables de entorno

Cree un archivo .env basado en el ejemplo:

  • WOLFRAM_API_KEY=su_id_de_aplicación_wolframalpha
  • GeminiAPI=your_google_gemini_api_key (opcional si se utiliza el método Cliente a continuación).

Requisitos de instalación

pip install -r requirements.txt

Configuración

Para usar con el servidor MCP de VSCode:

  1. Cree un archivo de configuración en .vscode/mcp.json en la raíz de su proyecto.
  2. Utilice el ejemplo proporcionado en configs/vscode_mcp.json como plantilla.
  3. Para obtener más detalles, consulte la Guía del servidor VSCode MCP .

Para utilizar con Claude Desktop:

{ "mcpServers": { "WolframAlphaServer": { "command": "python3", "args": [ "/path/to/src/core/server.py" ] } } }

Ejemplo de uso del cliente

Este proyecto incluye un cliente LLM que se comunica con el servidor MCP.

Ejecutar con Gradio UI
  • Requerido: GeminiAPI
  • Proporciona una interfaz web local para interactuar con Google AI y Wolfram Alpha.
  • Para ejecutar el cliente directamente desde la línea de comandos:
python main.py --ui
Estibador

Para construir y ejecutar el cliente dentro de un contenedor Docker:

docker build -t wolframalphaui -f .devops/ui.Dockerfile . docker run wolframalphaui
Interfaz de usuario
  • Interfaz intuitiva creada con Gradio para interactuar con Google AI (Gemini) y el servidor Wolfram Alpha MCP.
  • Permite a los usuarios cambiar entre Wolfram Alpha, Google AI (Gemini) y el historial de consultas.

Interfaz de usuario

Ejecutar como herramienta CLI
  • Requerido: GeminiAPI
  • Para ejecutar el cliente directamente desde la línea de comandos:
python main.py
Estibador

Para construir y ejecutar el cliente dentro de un contenedor Docker:

docker build -t wolframalpha -f .devops/llm.Dockerfile . docker run -it wolframalpha
-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

MCP_WolframAlpha

  1. Características
    1. Instalación
      1. Clonar el repositorio
      2. Configurar variables de entorno
      3. Requisitos de instalación
      4. Configuración
    2. Ejemplo de uso del cliente
      1. Ejecutar con Gradio UI
      2. Estibador
      3. Interfaz de usuario
      4. Ejecutar como herramienta CLI
      5. Estibador

    Related MCP Servers

    View all related MCP servers

    MCP directory API

    We provide all the information about MCP servers via our MCP API.

    curl -X GET 'https://glama.ai/api/mcp/v1/servers/akalaric/mcp-wolframalpha'

    If you have feedback or need assistance with the MCP directory API, please join our Discord server