Skip to main content
Glama

CoRT MCP Server

Servidor CoRT MCP

Este es un servidor MCP de Cadena de Pensamientos Recursivos (CORT). El proyecto original es el siguiente; aprecio enormemente su trabajo original.

Original: PhialsBasement/Chain-of-Recursive-Thoughts: Logré que mi IA pensara más al obligarla a discutir consigo misma repetidamente. Funciona de maravilla.
https://github.com/PhialsBasement/Cadena de pensamientos recursivos

Nota de lanzamiento

0.2.0 Lista LLM actualizada 0.1.0 Versión inicial

Características

  • El método CoRT, disponible a través del servidor MCP, obliga a la IA a pensar con más intensidad, haciéndola discutir consigo misma repetidamente. Funciona de maravilla.

Cheque trabajado

Código Roo / Cline

Configuración del host MCP

Se recomienda un tiempo de espera de 300 segundos. (A veces puede tomar más tiempo del esperado) Se requiere OPENROUTER_API_KEY. https://openrouter.ai/

Ejemplo: Registro deshabilitado

"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp", "--log=off"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }

Ejemplo: Registro habilitado (se requiere ruta absoluta del archivo de registro)

"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp", "--log=on", "--logfile=/workspace/logs/cort-mcp.log"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }
  • --log=off : Deshabilita todos los registros (no se escriben registros)
  • --log=on --logfile=/absolute/path/to/logfile.log : Habilita el registro y escribe registros en la ruta de archivo absoluta especificada
  • Ambos argumentos son necesarios cuando el registro está habilitado. El servidor cerrará con un error si falta alguno, si la ruta no es absoluta o si se proporcionan valores no válidos.

Nota:

  • Cuando el registro está habilitado, los registros se escriben solo en la ruta de archivo absoluta especificada. Las rutas relativas o la omisión de --logfile provocarán un error.
  • Cuando el registro está deshabilitado, no se generan registros.
  • Si faltan los argumentos requeridos o no son válidos, el servidor no se iniciará e imprimirá un mensaje de error.
  • El archivo de registro debe ser accesible y escribible por el proceso del servidor MCP.
  • Si tiene problemas para ejecutar este servidor, es posible que se deba a que se almacena en caché una versión anterior de cort-mcp. Intente ejecutarlo con la última versión (configure xyz a la última versión) de cort-mcp con la siguiente configuración.
"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp==x.y.z", "--log=off"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }

Herramientas disponibles

  • {toolname}.simple Sin detalles, solo muestra la alternativa final seleccionada.
  • {toolname}.details Incluye detalles del historial de respuestas de LLM.
  • {toolname}.mixed.llm Inferencia multi LLM.
  • {toolname}.neweval Nueva solicitud de evaluación.

Consulte los detalles a continuación.

¿Qué es CoRT?

Mejora importante respecto al original

Hay varias mejoras con respecto a la metodología CoRT original.

  1. Inferencia Multi LLM : cada alternativa se genera con un LLM diferente (modelo + proveedor) aleatoriamente.
  2. Mejora de la evaluación : La evaluación de indicaciones se actualiza añadiendo una indicación que solicita a la IA que explique su razonamiento. (La indicación original está disponible en las herramientas).

Inferencia de múltiples LLM

Descripción general: Esta nueva herramienta añade una estrategia de exploración que consiste en seleccionar aleatoriamente diferentes LLM (modelo + proveedor) para cada alternativa al flujo de pensamiento convencional de CoRT. Esto permite maximizar el uso del conocimiento y las ideas de los modelos heterogéneos y seleccionar la solución óptima entre una gama más amplia de opciones.

  • La función está disponible mediante herramientas llm mixtas.

La lista de LLM

  • Se seleccionan modelos razonablemente más ligeros y rápidos para una mejor experiencia del usuario.
MIXED_LLM_LIST = [ {"provider": "openai", "model": "gpt-4.1-nano"}, {"provider": "openrouter", "model": "meta-llama/llama-4-scout:free"}, {"provider": "openrouter", "model": "google/gemini-2.0-flash-exp:free"}, {"provider": "openrouter", "model": "mistralai/mistral-small-3.1-24b-instruct:free"}, {"provider": "openrouter", "model": "meta-llama/llama-3.2-3b-instruct:free"}, {"provider": "openrouter", "model": "thudm/glm-4-9b:free"}, ]

Proceso de herramientas LLM mixtas.

  • Para cada alternativa, seleccione aleatoriamente un LLM (modelo + proveedor) de la lista anterior
  • Registre siempre en el log “qué modelo y proveedor se utilizó” para cada alternativa generada
  • En el modo de detalles, incluya explícitamente "modelo y proveedor utilizado para cada alternativa" en la información del historial de respuestas

Mejora de la evaluación

Descripción general: Se modificó la solicitud de evaluación para que sea más completa. (La solicitud original está disponible en herramientas). Use la solicitud de {toolname}.neweval que solicita a la IA que explique su razonamiento.

Indicación original

f"""Original message: {prompt} Evaluate these responses and choose the best one: Current best: {current_best} Alternatives: {chr(10).join([f"{i+1}. {alt}" for i, alt in enumerate(alternatives)])} Which response best addresses the original message? Consider accuracy, clarity, and completeness. First, respond with ONLY 'current' or a number (1-{len(alternatives)}). Then on a new line, explain your choice in one sentence."""

Aviso mejorado

f""" Original message: {prompt} You are an expert evaluator tasked with selecting the response that best fulfills the user's true needs, considering multiple perspectives. Current best: {current_best} Alternatives: {chr(10).join([f"{i+1}. {alt}" for i, alt in enumerate(alternatives)])} Please follow this evaluation process: Intent Analysis: What is the user REALLY seeking? What underlying needs might be present beyond the surface question? Context Consideration: What possible situations or backgrounds could this question arise from? Diversity Assessment: Does the response consider different viewpoints or possible interpretations? Practicality Evaluation: How useful would the response be in the user's real-world context? Consistency Check: Is the response internally consistent and logically coherent? For each response (including the current best): Does it solve the user's TRUE problem? Does it balance accuracy and usefulness? Does it avoid unnecessary assumptions or biases? Is it flexible enough to apply in various contexts or situations? Does it account for exceptions or special cases? After completing your evaluation: Indicate your choice with ONLY 'current' or a number (1-{len(alternatives)}). On the next line, explain specifically why this response best meets the user's true needs. """

Especificación de parámetros y procesamiento de respaldo

Esta API determina el modelo real que se utilizará en función del provider y los parámetros model especificados, con procesamiento de respaldo en caso de errores.

  1. Resolución del proveedor ( provider )
    • Cuando no se especifica : openrouter se utiliza como proveedor predeterminado.
    • Cuando se especifica un valor no válido (distinto de openai o openrouter ): se recurre al proveedor predeterminado openrouter .
  2. Resolución del modelo ( model )
    • Cuando no se especifica :
      • Si el proveedor resuelto es openrouter : se utiliza el modelo predeterminado mistralai/mistral-small-3.1-24b-instruct:free .
      • Si el proveedor resuelto es openai : se utiliza el modelo OpenAI predeterminado.
    • Cuando se especifica (con un proveedor válido) :
      • El nombre del modelo especificado se utiliza tal cual con el proveedor resuelto.
      • Importante : en esta etapa, no se verifica si el nombre del modelo especificado realmente existe con el proveedor.
  3. Llamada API y reserva de errores
    • Primero se intenta una llamada API con la combinación de proveedor y modelo resuelta por las reglas anteriores.
    • Si ocurre un error durante la llamada API (por ejemplo, el modelo especificado no existe con el proveedor, error de autenticación de la clave API, etc.):
      • Condición 1 : El proveedor del primer intento de llamada no es openai .
      • Condición 2 : La variable de entorno OPENAI_API_KEY está configurada en el sistema.
      • Si se cumplen ambas condiciones anteriores, el sistema vuelve a intentar automáticamente el proceso utilizando el modelo predeterminado del proveedor openai (este es el procesamiento de respaldo).
      • Si no se cumple una o ambas de las condiciones anteriores (por ejemplo, el primer intento fue con openai o OPENAI_API_KEY no está configurado), se devuelve el error inicial como resultado final y este tipo de recuperación no ocurre.

Notas sobre las variables de entorno:

  • Se requiere OPENROUTER_API_KEY para utilizar openrouter .
  • Se requiere OPENAI_API_KEY para usar openai o para utilizar la función de respaldo mencionada anteriormente.
  • Si no se configura la clave API correspondiente, la llamada API fallará (la alternativa OpenAI también fallará dependiendo de las condiciones de la alternativa).

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Déjate llevar por lo salvaje

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor MCP que implementa la metodología de cadena de pensamientos recursivos (CoRT) que hace que la IA piense más al obligarla a discutir consigo misma repetidamente a través de múltiples rondas de generación y evaluación de alternativas.

  1. Nota de lanzamiento
    1. Características
      1. Cheque trabajado
        1. Configuración del host MCP
          1. Ejemplo: Registro deshabilitado
          2. Ejemplo: Registro habilitado (se requiere ruta absoluta del archivo de registro)
        2. Herramientas disponibles
          1. ¿Qué es CoRT?
            1. Mejora importante respecto al original
              1. Inferencia de múltiples LLM
              2. La lista de LLM
              3. Proceso de herramientas LLM mixtas.
            2. Mejora de la evaluación
              1. Indicación original
              2. Aviso mejorado
              3. Especificación de parámetros y procesamiento de respaldo
            3. Licencia

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                This is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directions
                Last updated -
                3
                16
                JavaScript
                MIT License
                • Apple
              • -
                security
                A
                license
                -
                quality
                An MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.
                Last updated -
                48
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                A
                license
                -
                quality
                A minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.
                Last updated -
                525
                1
                TypeScript
                MIT License
                • Apple
              • -
                security
                F
                license
                -
                quality
                An advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.
                Last updated -
                124
                Python
                • Linux
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/KunihiroS/cort-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server