CoRT MCP サーバー
これはChain-of-Recursive-Thoughts (CORT) MCPサーバーです。元のプロジェクトは以下の通りです。元の作品に深く感謝いたします。
オリジナル: PhialsBasement/Chain-of-Recursive-Thoughts: AIに何度も自己議論をさせることで、より深く考えさせるようにしました。驚くほどうまく動作します。
https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts
リリースノート
0.2.0 LLMリスト更新 0.1.0 初回リリース
Related MCP server: think-mcp-server
特徴
MCPサーバー経由で利用可能なCoRTメソッドは、AIに繰り返し自己議論をさせることで、AIの思考を困難にします。驚くほどうまく機能します。
作業済みチェック
ルーコード / クライン
MCPホスト構成
300秒のタイムアウトを推奨します。(予想よりも時間がかかる場合があります) OPENROUTER_API_KEYが必要です。https ://openrouter.ai/
例: ログ記録が無効
例: ログ記録が有効 (ログファイルの絶対パスが必要)
--log=off: すべてのログ記録を無効にする(ログは書き込まれません)--log=on --logfile=/absolute/path/to/logfile.log: ログ記録を有効にし、指定された絶対ファイルパスにログを書き込みます。ログ記録を有効にする場合は、両方の引数が必須です。どちらかが欠落している場合、パスが絶対パスでない場合、または無効な値が指定された場合、サーバーはエラーで終了します。
注記:
ログ記録を有効にすると、ログは指定された絶対ファイルパスにのみ書き込まれます。相対パスを指定したり、
--logfileを省略したりするとエラーが発生します。ログ記録が無効になっている場合、ログは出力されません。
必要な引数が欠落しているか無効である場合、サーバーは起動せず、エラー メッセージが表示されます。
ログ ファイルは、MCP サーバー プロセスによってアクセスおよび書き込み可能である必要があります。
このサーバーの実行に問題がある場合は、cort-mcpの古いバージョンがキャッシュされている可能性があります。以下の設定で、cort-mcpの最新バージョン(
xyzを最新バージョンに設定)で実行してみてください。
利用可能なツール
{toolname}.simple 詳細はなく、最終的に選択された代替案のみを出力します。
{toolname}.details LLM 応答履歴の詳細を含めます。
{toolname}.mixed.llm マルチ LLM 推論。
{toolname}.neweval 新しい評価プロンプト。
以下の詳細を確認してください。
CoRT とは何ですか?
オリジナルからの大幅な強化
オリジナルの CoRT 方法論からいくつかの機能が強化されています。
マルチ LLM 推論: 各選択肢は、異なる LLM (モデル + プロバイダー) を使用してランダムに生成されます。
評価強化:AIに推論の説明を求めるプロンプトを追加することで、プロンプト評価が更新されました。(元のプロンプトはツールで利用可能です)
マルチLLM推論
**概要:**従来のCoRT思考フローに、「選択肢ごとに異なるLLM(モデル+プロバイダ)をランダムに選択する」という探索戦略を追加した新しいツールです。これにより、異種モデルの知識やアイデアを最大限に活用し、より幅広い選択肢から最適な解を選択することが可能になります。
この機能は混合 LLM ツールで利用できます。
LLMのリスト
より良いユーザーエクスペリエンスを実現するために、適度に軽量で高速なモデルが選択されます。
混合 LLM ツール プロセス。
各選択肢について、上記のリストからLLM(モデル+プロバイダー)を1つランダムに選択します。
生成された代替案ごとに「どのモデルとプロバイダが使用されたか」を常にログに記録します。
詳細モードでは、応答履歴情報に「各代替案に使用されたモデルとプロバイダー」を明示的に含めます。
評価強化
**概要:**評価プロンプトをより充実したものに変更しました。(元のプロンプトはツールで利用できます) AI に推論を説明するよう求める {toolname}.neweval のプロンプトを使用します。
元のプロンプト
強化されたプロンプト
パラメータの指定とフォールバック処理
この API は、指定されたproviderとmodelパラメータに基づいて実際に使用するモデルを決定し、エラーの場合はフォールバック処理を実行します。
プロバイダー(
指定しない場合は、
openrouterがデフォルトのプロバイダーとして使用されます。無効な値が指定された場合(
openaiまたはopenrouter以外): デフォルトのプロバイダーopenrouterにフォールバックします。
モデル(
指定しない場合:
解決されたプロバイダーが
openrouterの場合: デフォルト モデルmistralai/mistral-small-3.1-24b-instruct:freeが使用されます。解決されたプロバイダーが
openaiの場合: デフォルトの OpenAI モデルが使用されます。
指定する場合(有効なプロバイダーを使用) :
指定されたモデル名は、解決されたプロバイダーでそのまま使用されます。
重要: この段階では、指定されたモデル名がプロバイダーに実際に存在するかどうかは検証されません。
API呼び出しとエラーフォールバック
最初に、上記のルールによって解決されたプロバイダーとモデルの組み合わせを使用して API 呼び出しが試行されます。
API 呼び出し中にエラーが発生した場合(例: 指定されたモデルがプロバイダーに存在しない、API キー認証エラーなど)。
条件 1 : 最初に試行された呼び出しのプロバイダーは
openaiはありません。条件2 : システムに環境変数
OPENAI_API_KEYが設定されている。上記の両方の条件が満たされた場合、システムは**
openaiプロバイダーのデフォルト モデルを使用してプロセスを自動的に再試行します**(これがフォールバック処理です)。上記の条件のいずれかまたは両方が満たされていない場合(たとえば、最初の試行が
openaiであった、またはOPENAI_API_KEYが設定されていない)、初期エラーが最終結果として返され、このタイプのフォールバックは発生しません。
環境変数に関する注意事項:
openrouter使用するにはOPENROUTER_API_KEYが必要です。openai使用する場合、または上記のフォールバック機能を利用する場合は、OPENAI_API_KEY必要です。対応する API キーが設定されていない場合、API 呼び出しは失敗します (フォールバック条件によっては OpenAI へのフォールバックも失敗します)。
ライセンス
マサチューセッツ工科大学
思いっきり楽しんで