remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Integrations
Provides access to WolframAlpha's LLM API, allowing users to query WolframAlpha with natural language questions, answer mathematical questions, and retrieve factual information about science, physics, history, geography, and more.
WolframAlpha LLM MCP 서버
WolframAlpha의 LLM API에 대한 액세스를 제공하는 모델 컨텍스트 프로토콜(MCP) 서버입니다. https://products.wolframalpha.com/llm-api/documentation
특징
- 자연어 질문을 사용하여 WolframAlpha의 LLM API 쿼리
- 복잡한 수학 문제에 답하세요
- 과학, 물리학, 역사, 지리 등에 대한 사실을 쿼리하세요
- LLM 소비에 최적화된 구조화된 응답을 받으세요
- 섹션을 통한 간소화된 답변 및 자세한 응답 지원
사용 가능한 도구
ask_llm
: WolframAlpha에 질문을 하고 체계적이고 llm 친화적인 답변을 받으세요get_simple_answer
: 간단한 답변을 받으세요validate_key
: WolframAlpha API 키 검증
설치
지엑스피1
구성
- developer.wolframalpha.com 에서 WolframAlpha API 키를 받으세요
- VSCode 설정 내의 Cline MCP 설정 파일에 추가하세요(예: ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json):
Copy
개발
테스트 설정
테스트는 정확한 응답을 보장하기 위해 실제 API 호출을 사용합니다. 테스트를 실행하려면 다음을 수행하세요.
- 예제 환경 파일을 복사하세요.Copy
.env
편집하고 WolframAlpha API 키를 추가하세요.참고: 민감한 정보가 커밋되는 것을 방지하기 위해Copy.env
파일은 gitignored로 처리됩니다.- 테스트를 실행하세요:Copy
건물
Copy
특허
MIT
You must be authenticated.
WolframAlpha의 LLM API에서 자연어 질문에 대한 쿼리를 실행하여 LLM 소비에 최적화된 구조화되고 간소화된 답변을 제공합니다.