Skip to main content
Glama

MCP Think Tank

by flight505

MCP 싱크탱크

개요

MCP 싱크탱크는 커서(Cursor)클로드 @웹(Claude @Web) 과 같은 AI 비서의 기능을 향상시키도록 설계된 강력한 모델 컨텍스트 프로토콜(MCP) 서버입니다. 향상된 추론, 지속적인 메모리, 그리고 책임감 있는 도구 사용을 위한 체계적인 환경을 제공합니다.

주요 기능으로는 고급 순차적 사고 및 연쇄 추론 , 버전 관리 기능을 갖춘 강력한 지식 그래프 메모리 시스템, 그리고 호출 제한 보호 기능을 갖춘 지능형 도구 오케스트레이션이 있습니다. 이 플랫폼은 AI가 구조화된 분석을 통해 복잡한 문제를 해결하고, 세션 전반에 걸쳐 지식을 유지하며, 웹 검색과 같은 외부 리소스를 활용할 수 있도록 지원하며, 구성 가능한 사용 제한을 준수합니다.

🎯 철학

MCP 싱크탱크는 세 가지 핵심 원칙을 기반으로 구축되었습니다.

  1. 우아한 단순성 : AI 기능을 복제하려 하지 않고 오히려 이를 보완하는 최소한이고 잘 설계된 도구입니다.
  2. 향상된 반성 : 부드러운 지도는 엄격한 제약 없이 더 나은 추론과 자기 반성을 촉진합니다.
  3. 지속적인 컨텍스트 : 간단하면서도 효과적인 지식 그래프는 대화 전반에 걸쳐 메모리를 제공합니다.

주요 특징

  • 💭 생각 도구 : 체계적인 추론과 자기 성찰을 위한 전용 공간입니다.
  • 🧩 지식 그래프 : 간단하고 효과적인 지속적 메모리 시스템.
  • 📝 작업 관리 도구 : 지식 그래프와 통합되어 작업을 계획, 추적 및 업데이트합니다.
  • 🌐 웹 조사 도구(Exa) : Exa API를 사용하여 웹을 검색하고 출처에서 답변을 얻으세요.
  • 🔍 메모리 도구 : 지식 그래프에서 정보를 저장하고 검색하는 데 사용하기 쉬운 도구입니다.
  • 🤝 클라이언트 지원 : Cursor, Claude @Web 및 기타 MCP 클라이언트와 원활하게 통합됩니다.
  • 🛡️ 도구 오케스트레이션 및 호출 제한 : 구성 가능한 제한을 통해 효율적이고 책임감 있는 도구 사용을 위한 내장형 보호 장치입니다.
  • 콘텐츠 캐싱 : 중복 감지를 자동으로 실행하여 파일 및 URL 작업에 대한 성능을 최적화합니다.
  • 🔄 순차적 사고 : 진행 상황 추적을 통해 다단계 추론 과정이 가능합니다.
  • 🔎 자기 반성 : 추론 품질을 개선하기 위한 자동 반성 과정입니다.
  • 📊 구조화된 출력 : 더 나은 가독성을 위해 사고 과정을 자동으로 포맷합니다.
  • 🔗 연구 통합 : 웹 연구 결과를 추론 흐름에 원활하게 통합합니다.

구조화된 사고의 이점

think Tool을 활용하면 체계적인 추론을 위한 전용 공간이 제공되어 다음과 같은 효과가 있습니다.

  • 명확한 문제 정의
  • 관련 컨텍스트 수집
  • 단계별 분석
  • 추론에 대한 자기 성찰
  • 잘 구성된 결론

최근 연구에 따르면 구조적 사고를 사용하면 상당한 개선이 이루어진다고 합니다.

  • 복잡한 의사결정 업무에서 상대적 54% 개선
  • 여러 실험에 걸쳐 일관성이 향상되었습니다 .
  • 소프트웨어 엔지니어링 벤치마크에서 성능이 향상되었습니다 .

자세한 기능

MCP Think Tank는 핵심 목록 외에도 고급 AI 상호작용을 위한 정교한 기능을 제공합니다.

구조화된 사고(생각 도구)

think 도구는 고급 AI 추론을 가능하게 하는 핵심 메커니즘입니다. AI가 문제를 체계적으로 분석하고, 맥락을 수집하고, 선택지를 분석하고, 자기 성찰을 수행할 수 있는 전담적이고 구조화된 환경을 제공합니다. 이를 통해 비구조화된 응답보다 심층적인 분석과 더 높은 품질의 결과물을 얻을 수 있습니다. 순차적인 단계를 지원하며 연구 및 기억 도구와 완벽하게 통합됩니다.

자기성찰 기능

think 도구에는 selfReflect: true 매개변수를 사용하여 활성화할 수 있는 강력한 자체 반성 기능이 포함되어 있습니다.

지엑스피1

자가 반성이 활성화되면 AI는 자신의 추론을 되돌아보라는 메시지를 받습니다. 이는 AI 기능을 대체하는 것이 아니라 향상시키는 MCP 설계 철학을 따릅니다.

reflectPrompt 매개변수를 사용하면 특정 추론 작업이나 도메인에 맞게 반영에 사용되는 프롬프트를 사용자 지정할 수 있습니다. 지정하지 않으면 불일치, 논리적 오류 및 개선 제안을 요청하는 기본 프롬프트가 사용됩니다.

지식 그래프 메모리

지식 그래프는 다양한 상호작용과 세션에 걸쳐 지속적인 메모리를 제공합니다. 이를 통해 AI는 프로젝트, 프로젝트 구성 요소 및 관련 개념에 대한 이해를 더욱 높일 수 있습니다.

  • 타임스탬프가 포함된 관찰 : 모든 메모리 항목에는 추적을 위한 메타데이터가 포함되어 있습니다.
  • 중복 방지 : 지능형 엔터티 매칭을 통해 중복 항목을 방지합니다.
  • 자동 연결 : 휴리스틱 기반 관계 생성으로 관련 개념을 연결합니다(구성 가능).
  • 고급 쿼리 : 강력한 memory_query 도구를 사용하여 시간, 태그, 키워드 등으로 메모리를 필터링하여 과거 분석 및 개념 발전 추적을 지원합니다. 최근 48시간 또는 특정 기간의 최신 항목을 쉽게 찾을 수 있습니다.
  • 메모리 유지 관리 : 메모리 증가를 정리하고 관리하는 도구가 포함되어 있습니다.
  • 주요 메모리 도구 : upsert_entities , add_observations , create_relations , search_nodes , memory_query , open_nodes 와 같은 도구는 그래프와 상호 작용하는 데 사용됩니다.

작업 관리 도구

AI는 대화 흐름 내에서 프로젝트 작업을 직접 관리할 수 있는 도구 모음을 제공합니다. 이를 통해 계획 및 실행을 지식 그래프와 통합하여 AI가 프로젝트 상태와 우선순위를 파악할 수 있습니다.

주요 작업 도구
  • plan_tasks : 우선순위와 종속성을 사용하여 여러 작업을 한 번에 생성합니다.
  • list_tasks : 상태 및 우선순위별로 작업 필터링
  • next_task : 가장 높은 우선순위 작업을 가져와 진행 중으로 표시합니다.
  • complete_task : 작업을 완료된 것으로 표시
  • update_tasks : 기존 작업을 새로운 정보로 업데이트합니다.

웹 리서치 도구(Exa)

MCP Think Tank는 Exa API를 활용하여 외부 정보를 가져오는 도구를 제공합니다. 이를 통해 AI는 웹에서 최신 정보에 접근하여 추론을 수행하고 관련 답변을 제공할 수 있습니다.

  • exa_search : 쿼리를 기반으로 웹 검색을 수행합니다.
  • exa_answer : 사실에 기반한 질문에 대한 간결하고 출처가 명확한 답변을 받으세요.

참고: 이 도구를 사용하려면 Exa API 키를 구성해야 합니다. 구성 섹션을 참조하세요.

도구 오케스트레이션 및 보호

MCP 싱크탱크에는 도구를 책임감 있고 효율적으로 사용할 수 있도록 보장하는 포괄적인 기능이 포함되어 있습니다.

  • 사용 제한 : 사용자 상호작용당 설정 가능한 최대 도구 호출 수( TOOL_LIMIT , 기본값: 25). 이 제한은 단일 사용자 메시지 내에서 연속된 도구 호출만 계산하며, 사용자가 새 메시지를 보내면 자동으로 재설정됩니다.
  • 자동 추적 : 모든 도구 호출이 기록되고 모니터링됩니다.
  • 우아한 저하 : 한계에 도달하면 시스템은 부분적인 결과를 반환하려고 시도합니다.
  • 지능형 캐싱 : 동일한 도구 호출과 반복적인 파일/URL 콘텐츠 가져오기가 자동으로 캐싱되어 실행 시간과 리소스 사용량을 줄입니다. 캐싱 동작 및 크기는 CACHE_TOOL_CALLS , CONTENT_CACHE 를 통해 설정할 수 있습니다.
  • 구성 가능한 액세스 : 도구 허용 목록을 통해 특정 상황에서 사용 가능한 도구를 제한할 수 있습니다.
  • 오류 처리 : 강력한 오류 처리를 통해 한계 도달이나 잘못된 도구 호출과 같은 문제에 대한 명확한 피드백을 제공합니다.

📦 설치

⚠️ 중요 참고 사항 읽어보세요: Cursor 또는 Claude에서 MCP Think Tank의 새 버전으로 업데이트할 때 MCP Think Tank 서버의 인스턴스를 여러 개 만들면 추가 Node.js 인스턴스가 생성되어 시스템 성능이 저하될 수 있습니다. 이는 MCP 서버에서 알려진 문제입니다. 시스템에서 모든 mcp-think-tank 프로세스를 종료하고 node.js 인스턴스가 하나만 실행되고 있는지 확인하세요.

⚠️ task.jsonl은 ~/.mcp-think-tank/에 있습니다. 싱크탱크가 이전에 kg 파일에 생성된 작업으로 인해 혼란을 겪을 수 있으므로 이 파일은 kg 파일과 분리되어 있습니다. 파일이 너무 커지거나 새 프로젝트를 시작하고 파일에 작업이 없는지 확인하려면 task.jsonl 파일의 내용을 삭제하세요. 향후 버전에서는 완료된 작업과 관계가 메모리에 저장되고 중복 작업이 없도록 작업을 kg 파일에 병합할 수 있습니다.

NPX (추천)

MCP Think Tank를 사용하는 가장 쉬운 방법은 글로벌 설치 없이 최신 버전을 실행하는 mcp.json 파일을 사용하여 Cursor의 NPX를 통하는 것입니다.

npx mcp-think-tank@2.0.7

최신 버전(호환성 문제가 있을 수 있음):

npx mcp-think-tank@latest

일부 사용자는 Cursor에서 npx @latest와 관련된 문제를 겪고 있습니다. 그렇다면 .json 파일에 mcp-think-tank@2.0.7 버전을 지정하거나 전역적으로 설치해 보세요.

글로벌 설치

영구 명령줄 도구의 경우:

npm install -g mcp-think-tank mcp-think-tank

⚙️ 구성

MCP Think Tank는 주로 환경 변수나 MCP 클라이언트 구성(예: Cursor의 .cursor/mcp.json )을 통해 구성됩니다.

빠른 시작: 필수 설정

  1. MCP Think Tank를 설치합니다 (위의 설치 참조).
  2. Exa API 키를 받으세요 (웹 검색 도구에 필요):
    • exa.ai 에 가입하고 API 키를 복사하세요.
  3. 중요 STDIO 서버는 더 이상 사용되지 않습니다 . MCP 업계는 HTTP 기반 전송으로 전환하고 있습니다. 향후 업데이트에서는 STDIO 서버를 지원하지 않습니다.
  4. MCP 서버를 구성합니다 (Cursor의 경우 .cursor/mcp.json 에 추가):
{ "mcpServers": { "think-tank": { "command": "npx", "args": ["-y", "mcp-think-tank@2.0.7"], "type": "streamable-http", "env": { "MEMORY_PATH": "/absolute/path/to/your/project/memory.jsonl", "EXA_API_KEY": "your-exa-api-key-here", } } } }

필수 변수

  • MEMORY_PATH : 필수 . 메모리 저장 파일의 절대 경로입니다. 중요: 프로젝트 간 지식 그래프 충돌을 방지하려면 항상 각 프로젝트마다 고유한 MEMORY_PATH 설정해야 합니다. 생략하면 기본값은 ~/.mcp-think-tank/memory.jsonl 입니다.
  • EXA_API_KEY : Exa 웹 검색 도구에 필요합니다 . exa.ai 에서 제공한 API 키입니다.

고급 구성

  • TOOL_LIMIT : 사용자 상호작용당 허용되는 최대 도구 호출 횟수(기본값: 25 ). 카운터는 새 사용자 메시지가 전송될 때마다 자동으로 재설정되므로 단일 상호작용 내에서 최대 25번의 연속 도구 호출이 가능합니다.
  • CACHE_TOOL_CALLS : 동일한 도구 호출의 캐싱을 활성화/비활성화합니다(기본값: true ).
  • TOOL_CACHE_SIZE : 캐시된 도구 호출의 최대 수(기본값: 100 ).
  • CACHE_CONTENT : 파일/URL 작업에 대한 콘텐츠 기반 캐싱을 활성화/비활성화합니다(기본값: true ).
  • CONTENT_CACHE_SIZE : 콘텐츠 캐시에 있는 항목의 최대 수(기본값: 50 ).
  • CONTENT_CACHE_TTL : 캐시된 콘텐츠의 수명(밀리초)(기본값: 300000 - 5분).
  • MCP_DEBUG : 디버그 로깅을 활성화합니다(기본값: false ).
  • MCP_LISTEN_PORT : MCP 서버에 대한 사용자 지정 포트를 설정합니다(기본값: TCP 서버의 경우 3399 , stdio 에는 해당 없음).
  • LOG_LEVEL : 로깅 수준( debug , info , warn , error )을 설정합니다(기본값: info ).
  • AUTO_LINK : 지식 그래프에서 자동 엔터티 연결을 활성화합니다(기본값: true ).

메모리 유지 관리

  • MIN_SIMILARITY_SCORE : 중복을 방지할 때 엔티티 일치에 대한 임계값(기본값: 0.85 ).
  • MAX_OPERATION_TIME : 일괄 메모리 작업에 필요한 최대 시간(밀리초)(기본값: 5000 ).

.cursor/mcp.json 의 고급 설정을 사용한 구성 예:

{ "mcpServers": { "think-tank": { "command": "npx", "args": ["-y", "mcp-think-tank@2.0.7"], "env": { "MEMORY_PATH": "./project-memory.jsonl", "EXA_API_KEY": "your-exa-api-key-here", "TOOL_LIMIT": "50", "CACHE_CONTENT": "true", "CONTENT_CACHE_SIZE": "100", "MCP_DEBUG": "false", "AUTO_LINK": "true" } } } }

💡 성능 팁: 대규모 프로젝트의 경우 TOOL_LIMIT 및 캐시 크기를 늘리면 메모리 사용량이 증가하는 대신 성능이 향상될 수 있습니다. 사용 패턴을 모니터링하고 적절히 조정하세요. 하지만 Cursor에서는 도구 제한을 25로 설정해야 제한에 도달하여 마지막 도구 호출에서 다시 시작되는 것을 방지할 수 있습니다. 현재 많은 커서 사용자들이 버전 0.49.6에서 다시 시작 문제를 보고하고 있습니다. 이는 MCP 싱크탱크와는 관련이 없습니다.

💡 참고: YOLO 모드 또는 Vibe 코딩에서 Cursor를 사용하는 경우, 새 채팅의 컨텍스트를 미리 설정하고 Cursor가 MCP 싱크탱크를 사용하여 엔티티, 관찰 및 관계를 생성하도록 설정하는 것이 좋습니다. 이렇게 하면 MCP 싱크탱크를 최대한 활용하는 데 도움이 됩니다.

컨텍스트 프라이밍의 예로는 프로젝트의 .cursor 폴더에 다음 내용이 포함된 Prime.md 파일을 보관하는 것입니다.

# Context Prime > Follow the instructions to understand the context of the project. ## Run the following command eza . --tree --git-ignore ## Read the following files > Read the files below to get the context of the project. > list of files: README.md ... ## MCP Think Tank Tools > Test the MCP tools, first use 'show_memory_path' to remind the user of the current memory path file used, then use the 'memory_query' tool to find and read recent entities and observations for the last 48 hours so you are up to date. > Automatically utilize the MCP Think Tank to autonomously track project context, dynamically adding entities, observations, and relations to the knowledge graph while proactively querying for relevant information and historical insights. Use integrated planning and task management tools to enhance project efficiency. Keep track of the project and its context without the user having to ask for it. > Dont do anything else.

MCP 서버에 대한 자세한 내용은 커서 MCP 설명서를 참조하세요.

프로젝트 규칙 설정(커서/AI용)

Cursor 및 기타 호환 에이전트가 MCP Think Tank 도구를 효과적으로 활용하도록 하려면 AI에 지침을 제공해야 합니다. 이는 일반적으로 프로젝트 규칙을 통해 수행됩니다. 다음과 같이 단일 자동 연결 프로젝트 규칙을 생성하세요.

1. 커서에 새 규칙 추가

  1. 커서를 엽니다.
  2. 명령 팔레트( Cmd+Shift+P 또는 Ctrl+Shift+P )로 이동합니다.
  3. "새 커서 규칙"을 선택합니다.
  4. 규칙의 이름을 지정합니다(예: mcp-think-tank.mdc ).
  5. 규칙 편집기에서 메타데이터를 설정하고 아래 예시의 규칙 내용을 붙여넣습니다.

2. 예제 규칙 파일( .cursor/rules/mcp-think-tank.mdc )

이 마크다운 파일은 AI에 대한 컨텍스트 역할을 하며, 사용 가능한 도구를 언제, 어떻게 사용할 것인지에 대한 지침을 제공합니다.

rule type: auto attach use globs: **/*.js,**/*.ts,**/*.jsx,**/*.tsx,**/*.md, **/*.py, **/*.json

----- 규칙의 시작 -----

Regularly utilize MCP Think Tank tools to maintain an updated knowledge graph and maximize its potential. Simply call the tools in your prompt. ## Quick Decision Tree 1. 🤔 **Complex problem to analyze?** → Use `think` to structure reasoning and reflect 2. 🔍 **Need past context or information?** → Use `memory_query` (time-based) or `search_nodes` (keyword-based) 3. 📊 **Planning implementation steps?** → Use `plan_tasks` to create and track work 4. 🌐 **Need current external information?** → Use `exa_search` (general search) or `exa_answer` (factual questions) ## Critical Memory Management (Automatic Use Required) | When to automatically use memory | Tool to use | |------------------|------------| | At session start | `memory_query` with recent time filter (last 24h) | | After completing significant analysis | `upsert_entities` to store conclusions | | When context seems missing | `memory_query` with relevant keyword | | Every ~30 minutes in long sessions | `upsert_entities` to create checkpoint | | When switching between major topics | `think` + `upsert_entities` to summarize progress | | Before session end | `upsert_entities` to store session summary | ## Core Workflows ### Workflow 1: Problem Analysis → Solution 1. `memory_query` → Check for relevant past work 2. `think` → Structure reasoning about the problem 3. `plan_tasks` → Break down implementation steps 4. `upsert_entities` → Store conclusions in memory ### Workflow 2: Research → Knowledge Capture 1. `memory_query` → Check if already researched 2. `exa_search` → Find current information 3. `think` → Analyze findings 4. `upsert_entities` → Document key concepts ### Workflow 3: Context Recovery (Session Resume) 1. `memory_query` → Retrieve recent work (past 24-48h) 2. `open_nodes` → Get details on relevant entities 3. `think` → Synthesize context and plan next steps 4. Continue where left off ### Workflow 4: Task Management 1. `list_tasks` → Review current work status 2. `next_task` → Identify priority task 3. `complete_task` → Mark finished work 4. `upsert_entities` → Document completion ## Trigger Patterns (Automatic Tool Use) | When user... | Automatically use... | |--------------|----------------------| | Asks complex question requiring analysis | `think` | | Mentions "remember" or refers to past work | `memory_query` with time filter → `open_nodes` | | Uses "research" or "find latest" | `memory_query` (check if already known) → `exa_search` | | Asks factual questions needing citations | `exa_answer` | | Mentions planning or implementation | `plan_tasks` | | Refers to continuing previous work | `memory_query` → `list_tasks` → `next_task` | | Seems to have lost context from earlier | `memory_query` with recent time filter | | Makes significant conceptual progress | `upsert_entities` without being asked | | Connects related concepts | `create_relations` | | Completes major section of work | `think` + `upsert_entities` to summarize | ### When To Use Each Memory Tool - `memory_query`: For time-based searches and recent context recovery - `search_nodes`: For finding specific concepts by keyword - `open_nodes`: For retrieving full details of known entities - `upsert_entities`: For creating new knowledge or updating existing entities - `add_observations`: For adding facts to existing entities - `create_relations`: For connecting related concepts ## Other Tools Reference ### Thinking - `think`: Structured reasoning with optional reflection ### Tasks - `plan_tasks`: Create task list - `list_tasks`: View current tasks - `next_task`: Get priority task - `complete_task`: Mark task done ### Research - `exa_search`: Web search - `exa_answer`: Get cited answers ## AI Behavior Requirements 1. ALWAYS check memory at session start with `memory_query` 2. AUTOMATICALLY store important conclusions with `upsert_entities` 3. CREATE periodic memory checkpoints during long sessions 4. PROACTIVELY check memory when context seems missing 5. CHAIN tools together following the workflows 6. PRIORITIZE memory tools before web research 7. SUMMARIZE progress before ending major work segments

----- 규칙의 끝 -----

⚡ 성능 최적화

MCP Think Tank는 효율적인 운영을 보장하기 위해 내장된 최적화 기능을 통합했습니다.

콘텐츠 캐싱

  • 암호화 해싱을 기반으로 파일 및 URL 콘텐츠를 자동으로 캐싱합니다.
  • 중복된 파일 읽기 및 네트워크 요청을 방지합니다.
  • 동일한 콘텐츠에 대한 반복 작업의 속도가 크게 향상됩니다.
  • 캐시 크기와 TTL은 환경 변수( CONTENT_CACHE_SIZE , CONTENT_CACHE_TTL )를 통해 구성할 수 있습니다.

도구 호출 최적화

  • 세션 내에서 동일한 도구 호출이 자동으로 감지되어 캐시에서 제공됩니다.
  • 상호 작용 한도에 중복된 통화가 계산되는 것을 방지합니다.
  • 반복적인 도구 요청에 대한 대응성을 향상시킵니다.
  • 캐시 크기는 구성 가능합니다( TOOL_CACHE_SIZE ).

모범 사례

대규모 프로젝트에서 Cursor/Claude와 함께 MCP Think Tank를 최적으로 사용하려면:

  • 모든 사소하지 않은 추론 및 의사결정 과정에는 think Tool을 활용하세요.
  • 메모리 도구를 사용하여 중요한 생각, 결론 및 아키텍처 결정을 항상 지식 그래프에 유지합니다.
  • AI가 정보를 얻고 집중할 수 있도록 웹 조사와 작업 관리를 워크플로에 통합하세요.
  • 정확성과 관련성을 보장하기 위해 프로젝트의 지식 그래프를 정기적으로 검토하고 업데���트하세요.
  • 코드와 디자인의 일관성을 유지하려면 기존 지식과 과거의 결정을 참조하세요.
  • 특히 복잡한 자동화 워크플로에서는 도구 호출 제한에 유의하세요. 필요한 경우 사용량을 모니터링하세요.
  • 더 나은 성능을 위해 프로젝트의 필요 사항과 복잡성에 따라 구성 변수( TOOL_LIMIT , 캐시 설정)를 조정하세요.

🤝 기여하기

기여를 환영합니다! 풀 리퀘스트를 제출해 주세요.

  1. 저장소를 포크합니다.
  2. 기능 브랜치를 생성합니다( git checkout -b feature/amazing-feature ).
  3. 변경 사항을 커밋합니다( git commit -m 'Add some amazing feature' ).
  4. 브랜치에 푸시합니다( git push origin feature/amazing-feature ).
  5. 풀 리퀘스트를 엽니다.

📄 라이센스

이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.

📚 참조 링크


Related MCP Servers

  • A
    security
    F
    license
    A
    quality
    Provides reasoning content to MCP-enabled AI clients by interfacing with Deepseek's API or a local Ollama server, enabling focused reasoning and thought process visualization.
    Last updated -
    1
    54
    24
    JavaScript
  • A
    security
    A
    license
    A
    quality
    A server that enhances Claude's reasoning capabilities by integrating DeepSeek R1's advanced reasoning engine to tackle complex reasoning tasks.
    Last updated -
    1
    Python
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    Enhances AI model capabilities with structured, retrieval-augmented thinking processes that enable dynamic thought chains, parallel exploration paths, and recursive refinement cycles for improved reasoning.
    Last updated -
    1
    15
    JavaScript
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    AoT MCP server enables AI models to solve complex reasoning problems by decomposing them into independent, reusable atomic units of thought, featuring a powerful decomposition-contraction mechanism that allows for deep exploration of problem spaces while maintaining high confidence in conclusions.
    Last updated -
    3
    25
    JavaScript
    MIT License
    • Apple
    • Linux

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/flight505/mcp-think-tank'

If you have feedback or need assistance with the MCP directory API, please join our Discord server