Servidor MCP WolframAlpha LLM
Un servidor de Protocolo de Contexto de Modelo (MCP) que proporciona acceso a la API LLM de WolframAlpha. https://products.wolframalpha.com/llm-api/documentation
Características
Consulta la API LLM de WolframAlpha con preguntas en lenguaje natural
Responder preguntas matemáticas complicadas
Consulta datos sobre ciencia, física, historia, geografía y más.
Obtenga respuestas estructuradas y optimizadas para el consumo de LLM
Soporte para respuestas simplificadas y respuestas detalladas con secciones
Related MCP server: SEO Tools MCP Server
Herramientas disponibles
ask_llm: Hazle una pregunta a WolframAlpha y obtén una respuesta estructurada y amigable para llmget_simple_answer: Obtenga una respuesta simplificadavalidate_key: Validar la clave API de WolframAlpha
Instalación
Configuración
Obtén tu clave API de WolframAlpha en developer.wolframalpha.com
Agréguelo a su archivo de configuración de Cline MCP dentro de la configuración de VSCode (por ejemplo, ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json):
Desarrollo
Configuración de pruebas
Las pruebas utilizan llamadas API reales para garantizar respuestas precisas. Para ejecutar las pruebas:
Copie el archivo de entorno de ejemplo:
cp .env.example .envEdite
.envy agregue su clave API de WolframAlpha:WOLFRAM_LLM_APP_ID=your-api-key-hereNota: El archivo
.envse ignora para evitar enviar información confidencial.Ejecutar las pruebas:
npm test
Edificio
Licencia
Instituto Tecnológico de Massachusetts (MIT)