Skip to main content
Glama

WolframAlpha LLM MCP Server

by Garoth

WolframAlpha LLM MCP 서버

WolframAlpha의 LLM API에 대한 액세스를 제공하는 모델 컨텍스트 프로토콜(MCP) 서버입니다. https://products.wolframalpha.com/llm-api/documentation

특징

  • 자연어 질문을 사용하여 WolframAlpha의 LLM API 쿼리
  • 복잡한 수학 문제에 답하세요
  • 과학, 물리학, 역사, 지리 등에 대한 사실을 쿼리하세요
  • LLM 소비에 최적화된 구조화된 응답을 받으세요
  • 섹션을 통한 간소화된 답변 및 자세한 응답 지원

사용 가능한 도구

  • ask_llm : WolframAlpha에 질문을 하고 체계적이고 llm 친화적인 답변을 받으세요
  • get_simple_answer : 간단한 답변을 받으세요
  • validate_key : WolframAlpha API 키 검증

설치

지엑스피1

구성

  1. developer.wolframalpha.com 에서 WolframAlpha API 키를 받으세요
  2. VSCode 설정 내의 Cline MCP 설정 파일에 추가하세요(예: ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json):
{ "mcpServers": { "wolframalpha": { "command": "node", "args": ["/path/to/wolframalpha-mcp-server/build/index.js"], "env": { "WOLFRAM_LLM_APP_ID": "your-api-key-here" }, "disabled": false, "autoApprove": [ "ask_llm", "get_simple_answer", "validate_key" ] } } }

개발

테스트 설정

테스트는 정확한 응답을 보장하기 위해 실제 API 호출을 사용합니다. 테스트를 실행하려면 다음을 수행하세요.

  1. 예제 환경 파일을 복사하세요.
    cp .env.example .env
  2. .env 편집하고 WolframAlpha API 키를 추가하세요.
    WOLFRAM_LLM_APP_ID=your-api-key-here
    참고: 민감한 정보가 커밋되는 것을 방지하기 위해 .env 파일은 gitignored로 처리됩니다.
  3. 테스트를 실행하세요:
    npm test

건물

npm run build

특허

MIT

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

WolframAlpha의 LLM API에서 자연어 질문에 대한 쿼리를 실행하여 LLM 소비에 최적화된 구조화되고 간소화된 답변을 제공합니다.

  1. 특징
    1. 사용 가능한 도구
      1. 설치
        1. 구성
          1. 개발
            1. 테스트 설정
            2. 건물
          2. 특허

            Related MCP Servers

            • -
              security
              F
              license
              -
              quality
              Facilitates executing system commands and retrieving web data using the Brave Search API by interpreting user intents via a Large Language Model (LLM).
              Last updated -
              1
              Python
            • -
              security
              F
              license
              -
              quality
              Enables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.
              Last updated -
              1
              Python
            • -
              security
              A
              license
              -
              quality
              Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
              Last updated -
              53
              Python
              MIT License
              • Linux
              • Apple
            • -
              security
              A
              license
              -
              quality
              Enables LLMs to autonomously retrieve and explore web content by fetching pages and recursively following links to a specified depth, particularly useful for learning about topics from documentation.
              Last updated -
              TypeScript
              MIT License

            View all related MCP servers

            MCP directory API

            We provide all the information about MCP servers via our MCP API.

            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Garoth/wolframalpha-llm-mcp'

            If you have feedback or need assistance with the MCP directory API, please join our Discord server