CoRT MCP 服务器
这是一个基于递归思想链 (CORT) 的 MCP 服务器。原始项目如下,我非常欣赏原始作品。
原文:PhialsBasement/Chain-of-Recursive-Thoughts:我让我的人工智能反复与自己争论,让它更加努力地思考。结果出奇地好。
https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts
发行说明
0.2.0 LLM 列表更新 0.1.0 初始版本
特征
- 通过 MCP 服务器提供的 CoRT 方法,AI 可以通过反复与自己争论来提高思考能力。这种方法效果惊人。
已完成检查
袋鼠代码/克莱恩
MCP 主机配置
建议超时 300 秒。(有时可能比预期花费更长的时间)需要 OPENROUTER_API_KEY。https ://openrouter.ai/
示例:禁用日志记录
示例:启用日志记录(需要绝对日志文件路径)
--log=off
:禁用所有日志记录(不写入任何日志)--log=on --logfile=/absolute/path/to/logfile.log
:启用日志记录并将日志写入指定的绝对文件路径- 启用日志记录时,两个参数均为必填项。如果缺少其中一个、路径不是绝对路径或提供了无效值,服务器将返回错误并退出。
笔记:
- 启用日志记录后,日志仅写入指定的绝对文件路径。相对路径或省略
--logfile
将导致错误。- 当禁用日志记录时,不会输出任何日志。
- 如果所需参数缺失或无效,服务器将无法启动并将打印错误消息。
- MCP 服务器进程必须能够访问和写入日志文件。
- 如果您无法运行此服务器,可能是由于缓存了旧版本的 cort-mcp。请尝试使用最新版本的 cort-mcp(将
xyz
设置为最新版本),并按照以下设置运行。
可用工具
- {toolname}.simple 没有详细信息,仅输出最终选择的替代方案。
- {toolname}.details 包括 LLM 响应历史的详细信息。
- {toolname}.mixed.llm 多 LLM 推理。
- {toolname}.neweval 新的评估提示。
检查以下详细信息。
CoRT 是什么?
相比原版有重大改进
与原始 CoRT 方法相比,它有几项增强功能。
- 多 LLM 推理:每个替代方案都是使用不同的 LLM(模型 + 提供者)随机生成的。
- 评估增强:提示评估已更新,新增了要求人工智能解释其推理的提示。(原始提示可通过工具获取)
多LLM推理
**概述:**这是一个全新的工具,它在传统的 CoRT 思维流程中增加了“为每个备选方案随机选择不同的 LLM(模型 + 提供商)”的探索策略。这使您能够最大限度地利用异构模型的知识和思路,从更广泛的选项中选择出最优解决方案。
- 该功能可通过混合 llm 工具使用。
法学硕士(LLM)名单
- 选择合理更轻、更快的模型以获得更好的用户体验。
混合 LLM 工具流程。
- 对于每个替代方案,从上述列表中随机选择一个 LLM(模型 + 提供者)
- 始终在日志中记录每个生成的替代方案的“使用了哪个模型和提供商”
- 在详细信息模式下,在响应历史记录信息中明确包含“每个替代方案使用的模型和提供商”
评估增强
**概述:**改进了评估提示,使其更加丰富。(原提示可通过工具获取)使用 {toolname}.neweval 提供的提示,要求 AI 解释其推理过程。
原始提示
增强提示
参数规范和回退处理
该API根据指定的provider
和model
参数确定实际要使用的模型,并在出现错误时进行回退处理。
- 提供商(
provider
)解析- 未指定时:
openrouter
用作默认提供程序。 - 当指定了无效值(
openai
或openrouter
除外)时:将恢复为默认提供程序openrouter
。
- 未指定时:
- 模型(
model
)分辨率- 未指定时:
- 如果解析的提供者是
openrouter
:则使用默认模型mistralai/mistral-small-3.1-24b-instruct:free
。 - 如果解析的提供者是
openai
:则使用默认的 OpenAI 模型。
- 如果解析的提供者是
- 当指定时(使用有效的提供程序) :
- 指定的模型名称与已解析的提供程序按原样使用。
- 重要提示:在此阶段,尚未验证提供商是否确实存在指定的模型名称。
- 未指定时:
- API 调用和错误回退
- 首先尝试通过上述规则解析提供程序和模型组合进行 API 调用。
- 如果在 API 调用期间发生错误(例如,指定的模型在提供商中不存在、API 密钥认证错误等):
- 条件 1 : 第一次尝试呼叫的提供商不是
openai
。 - 条件2 :系统中设置了环境变量
OPENAI_API_KEY
。 - 如果同时满足上述两个条件,系统将自动使用
openai
提供商的默认模型重试该过程(这是回退处理)。 - 如果上述其中一个或两个条件均不满足(例如,第一次尝试使用
openai
或未设置OPENAI_API_KEY
),则初始错误将作为最终结果返回,并且不会发生这种类型的回退。
- 条件 1 : 第一次尝试呼叫的提供商不是
环境变量说明:
- 使用
openrouter
需要OPENROUTER_API_KEY
。 - 使用
openai
或利用上述回退功能需要OPENAI_API_KEY
。 - 如果未设置相应的 API 密钥,则 API 调用将失败(根据回退条件,回退到 OpenAI 也将失败)。
执照
麻省理工学院
尽情狂欢吧
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
一个 MCP 服务器,实现了递归思维链 (CoRT) 方法,通过多轮替代方案生成和评估,让 AI 反复与自己争论,从而使 AI 更加深入地思考。
Related MCP Servers
- AsecurityAlicenseAqualityThis is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directionsLast updated -316JavaScriptMIT License
- -securityAlicense-qualityAn MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.Last updated -48PythonMIT License
- -securityAlicense-qualityA minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.Last updated -5251TypeScriptMIT License
- -securityFlicense-qualityAn advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.Last updated -124Python