CoRT MCP 서버
이것은 재귀적 사고의 사슬(CORT) MCP 서버입니다. 원본 프로젝트는 아래와 같습니다. 원본 작업에 진심으로 감사드립니다.
원문: PhialsBasement/Chain-of-Recursive-Thoughts: 제 AI가 스스로와 반복적으로 논쟁하게 해서 더 깊이 생각하게 만들었습니다. 정말 멍청할 정도로 잘 작동합니다.
https://github.com/PhialsBasement/재귀적 생각의 사슬
릴리스 노트
0.2.0 LLM 목록 업데이트 0.1.0 최초 릴리스
Related MCP server: think-mcp-server
특징
MCP 서버를 통해 제공되는 CoRT 방식은 AI가 스스로와 반복적으로 논쟁하도록 만들어 더 깊이 생각하게 만듭니다. 정말 놀라울 정도로 잘 작동합니다.
작동 확인
루 코드 / 클라인
MCP 호스트 구성
300초 시간 제한을 권장합니다. (예상보다 시간이 더 오래 걸릴 수 있음) OPENROUTER_API_KEY가 필요합니다. https://openrouter.ai/
예: 로깅 비활성화
지엑스피1
예: 로깅 활성화(절대 로그 파일 경로 필요)
--log=off: 모든 로깅을 비활성화합니다(로그가 기록되지 않습니다).--log=on --logfile=/absolute/path/to/logfile.log: 로깅을 활성화하고 지정된 절대 파일 경로에 로그를 기록합니다.로깅이 활성화된 경우 두 인수 모두 필수 입니다. 두 인수 중 하나라도 누락되었거나, 절대 경로가 아니거나, 잘못된 값이 지정되면 서버가 오류와 함께 종료됩니다.
메모:
로깅이 활성화되면 로그는 지정된 절대 파일 경로 에만 기록됩니다. 상대 경로를 사용하거나
--logfile옵션을 생략하면 오류가 발생합니다.로깅이 비활성화되면 로그가 출력되지 않습니다.
필수 인수가 누락되었거나 유효하지 않으면 서버가 시작되지 않고 오류 메시지가 인쇄됩니다.
로그 파일은 MCP 서버 프로세스에서 접근하고 쓸 수 있어야 합니다.
이 서버를 실행하는 데 문제가 있는 경우, 이전 버전의 cort-mcp가 캐싱되어 있을 수 있습니다. 아래 설정을 사용하여 cort-mcp 최신 버전(
xyz최신 버전으로 설정)으로 실행해 보세요.
사용 가능한 도구
{toolname}.simple 세부 정보 없음, 최종적으로 선택된 대안만 출력합니다.
{toolname}.details LLM 응답 기록에 대한 세부 정보를 포함합니다.
{toolname}.mixed.llm 다중 LLM 추론.
{toolname}.neweval 새로운 평가 프롬프트입니다.
아래 세부 정보를 확인하세요.
CoRT란 무엇인가요?
원본에서 크게 향상된 기능
원래 CoRT 방법론에는 여러 가지 개선 사항이 있습니다.
다중 LLM 추론 : 각 대안은 다른 LLM(모델 + 공급자)을 사용하여 무작위로 생성됩니다.
평가 강화 : AI에게 추론 과정을 설명하도록 요청하는 프롬프트를 추가하여 프롬프트 평가를 업데이트합니다. (원래 프롬프트는 도구에서 이용 가능합니다.)
다중 LLM 추론
개요: 이 도구는 기존 CoRT 사고 흐름에 "각 대안에 대해 서로 다른 LLM(모델 + 제공자)을 무작위로 선택하는" 탐색 전략을 추가하는 새로운 도구입니다. 이를 통해 이기종 모델의 지식과 아이디어를 최대한 활용하고 더 다양한 옵션 중에서 최적의 솔루션을 선택할 수 있습니다.
이 기능은 여러 LLM 도구에서 사용 가능합니다.
LLM 목록
더 나은 사용자 경험을 위해 비교적 가볍고 빠른 모델이 선택되었습니다.
혼합 LLM 도구 프로세스.
각 대안에 대해 위 목록에서 하나의 LLM(모델 + 공급자)을 무작위로 선택합니다.
생성된 각 대안에 대해 "어떤 모델과 공급자가 사용되었는지"를 항상 로그에 기록하십시오.
세부 정보 모드에서는 응답 기록 정보에 "각 대안에 사용된 모델 및 공급자"를 명시적으로 포함합니다.
평가 강화
개요: 평가 프롬프트가 더 풍부해졌습니다. (원래 프롬프트는 tools에서 사용 가능합니다.) AI에게 추론 과정을 설명하도록 요청하는 {toolname}.neweval 프롬프트를 사용하세요.
원래 프롬프트
향상된 프롬프트
매개변수 사양 및 폴백 처리
이 API는 지정된 provider 와 model 매개변수를 기반으로 실제로 사용할 모델을 결정하며, 오류가 발생할 경우 대체 처리를 수행합니다.
제공자(
지정하지 않으면
openrouter가 기본 공급자로 사용됩니다.잘못된 값이 지정된 경우 (
openai또는openrouter제외): 기본 공급자openrouter로 돌아갑니다.
모델(
지정되지 않은 경우 :
해결된 공급자가
openrouter인 경우: 기본 모델mistralai/mistral-small-3.1-24b-instruct:free가 사용됩니다.해결된 공급자가
openai인 경우: 기본 OpenAI 모델이 사용됩니다.
(유효한 공급자를 통해) 지정된 경우 :
지정된 모델 이름은 확인된 공급자와 함께 그대로 사용됩니다.
중요 : 이 단계에서는 지정된 모델명이 실제로 공급업체에 존재하는지 확인되지 않습니다.
API 호출 및 오류 대체
API 호출은 먼저 위의 규칙에 따라 해결되는 공급자와 모델 조합으로 시도됩니다.
API 호출 중에 오류가 발생하는 경우 (예: 지정된 모델이 공급자에게 존재하지 않음, API 키 인증 오류 등):
조건 1 : 첫 번째 시도된 통화 제공자가
openai않습니다 .조건 2 : 환경 변수
OPENAI_API_KEY가 시스템에 설정되어 있습니다.위의 두 조건이 모두 충족되면 시스템은
openai(이것이 대체 처리입니다).위의 두 조건 중 하나 또는 둘 다 충족되지 않으면(예: 첫 번째 시도가
openai사용한 경우 또는OPENAI_API_KEY설정되지 않은 경우), 초기 오류가 최종 결과로 반환되고 이러한 유형의 대체는 발생하지 않습니다.
환경 변수에 대한 참고 사항:
openrouter사용하려면OPENROUTER_API_KEY필요합니다.OPENAI_API_KEY``openai사용하거나 위의 대체 기능을 활용하는 데 필요합니다.해당 API 키가 설정되지 않으면 API 호출이 실패합니다(폴백 조건에 따라 OpenAI로의 폴백도 실패합니다).
특허
MIT
그것을 가지고 야생으로 가다