Chain of Thought MCP 서버
Anthropic의 최근 기사 "생각 도구: 복잡한 도구 사용 상황에서 Claude가 멈추고 생각할 수 있도록 지원"에서는 외부 think
도구를 사용하면 SWE Bench 에서 성능이 눈에 띄게 향상된다는 것을 보여줍니다.
이 MCP 서버는 Groq의 API를 사용하여 Qwen의 qwq 모델 에서 원시 사고 체인 토큰을 노출하는 LLM을 호출합니다.
설치
- 이 저장소를 로컬 컴퓨터에 복제합니다.
- 종속성을 설치하려면
uv sync
실행하세요. - 여기 에서 Groq API 키를 받으세요.
- 다음을 사용하여 mcp 구성을 업데이트하세요.
지엑스피1
경로는 이 저장소의 로컬 경로여야 합니다. 저장소 루트에서 터미널의 pwd
명령어를 실행하면 쉽게 경로를 확인할 수 있습니다.
AI에게 이 MCP 서버를 사용하도록 지시
저는 개인적으로 에이전트가 모든 요청에 대해 이 도구를 호출하여 성능을 높이는 것을 선호합니다. 저는 에이전트 규칙에 다음을 추가합니다.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Groq의 API를 사용하여 Qwen의 qwq 모델에서 원시 사고 체인 토큰을 노출하는 MCP 서버로, LLM이 응답하기 전에 단계별로 생각할 수 있도록 합니다.
Related MCP Servers
- -securityFlicense-qualityA server that implements the Model Completion Protocol (MCP) to allow LLMs to interact with Databricks resources including clusters, jobs, notebooks, and SQL execution through natural language.Last updated -6Python
- -securityAlicense-qualityA TypeScript Model Context Protocol (MCP) server to allow LLMs to programmatically construct mind maps to explore an idea space, with enforced "metacognitive" self-reflection.Last updated -592TypeScriptMIT License
- -securityAlicense-qualityAn MCP server that enables managing multiple lines of thought with features like branch navigation, cross-references between related thoughts, and insight generation from key points.Last updated -1TypeScriptMIT License
- AsecurityAlicenseAqualityAn MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.Last updated -441TypeScriptMIT License