Servidor CoRT MCP
Este es un servidor MCP de Cadena de Pensamientos Recursivos (CORT). El proyecto original es el siguiente; aprecio enormemente su trabajo original.
Original: PhialsBasement/Chain-of-Recursive-Thoughts: Logré que mi IA pensara más al obligarla a discutir consigo misma repetidamente. Funciona de maravilla.
https://github.com/PhialsBasement/Cadena de pensamientos recursivos
Nota de lanzamiento
0.2.0 Lista LLM actualizada 0.1.0 Versión inicial
Características
- El método CoRT, disponible a través del servidor MCP, obliga a la IA a pensar con más intensidad, haciéndola discutir consigo misma repetidamente. Funciona de maravilla.
Cheque trabajado
Código Roo / Cline
Configuración del host MCP
Se recomienda un tiempo de espera de 300 segundos. (A veces puede tomar más tiempo del esperado) Se requiere OPENROUTER_API_KEY. https://openrouter.ai/
Ejemplo: Registro deshabilitado
Ejemplo: Registro habilitado (se requiere ruta absoluta del archivo de registro)
--log=off
: Deshabilita todos los registros (no se escriben registros)--log=on --logfile=/absolute/path/to/logfile.log
: Habilita el registro y escribe registros en la ruta de archivo absoluta especificada- Ambos argumentos son necesarios cuando el registro está habilitado. El servidor cerrará con un error si falta alguno, si la ruta no es absoluta o si se proporcionan valores no válidos.
Nota:
- Cuando el registro está habilitado, los registros se escriben solo en la ruta de archivo absoluta especificada. Las rutas relativas o la omisión de
--logfile
provocarán un error.- Cuando el registro está deshabilitado, no se generan registros.
- Si faltan los argumentos requeridos o no son válidos, el servidor no se iniciará e imprimirá un mensaje de error.
- El archivo de registro debe ser accesible y escribible por el proceso del servidor MCP.
- Si tiene problemas para ejecutar este servidor, es posible que se deba a que se almacena en caché una versión anterior de cort-mcp. Intente ejecutarlo con la última versión (configure
xyz
a la última versión) de cort-mcp con la siguiente configuración.
Herramientas disponibles
- {toolname}.simple Sin detalles, solo muestra la alternativa final seleccionada.
- {toolname}.details Incluye detalles del historial de respuestas de LLM.
- {toolname}.mixed.llm Inferencia multi LLM.
- {toolname}.neweval Nueva solicitud de evaluación.
Consulte los detalles a continuación.
¿Qué es CoRT?
Mejora importante respecto al original
Hay varias mejoras con respecto a la metodología CoRT original.
- Inferencia Multi LLM : cada alternativa se genera con un LLM diferente (modelo + proveedor) aleatoriamente.
- Mejora de la evaluación : La evaluación de indicaciones se actualiza añadiendo una indicación que solicita a la IA que explique su razonamiento. (La indicación original está disponible en las herramientas).
Inferencia de múltiples LLM
Descripción general: Esta nueva herramienta añade una estrategia de exploración que consiste en seleccionar aleatoriamente diferentes LLM (modelo + proveedor) para cada alternativa al flujo de pensamiento convencional de CoRT. Esto permite maximizar el uso del conocimiento y las ideas de los modelos heterogéneos y seleccionar la solución óptima entre una gama más amplia de opciones.
- La función está disponible mediante herramientas llm mixtas.
La lista de LLM
- Se seleccionan modelos razonablemente más ligeros y rápidos para una mejor experiencia del usuario.
Proceso de herramientas LLM mixtas.
- Para cada alternativa, seleccione aleatoriamente un LLM (modelo + proveedor) de la lista anterior
- Registre siempre en el log “qué modelo y proveedor se utilizó” para cada alternativa generada
- En el modo de detalles, incluya explícitamente "modelo y proveedor utilizado para cada alternativa" en la información del historial de respuestas
Mejora de la evaluación
Descripción general: Se modificó la solicitud de evaluación para que sea más completa. (La solicitud original está disponible en herramientas). Use la solicitud de {toolname}.neweval que solicita a la IA que explique su razonamiento.
Indicación original
Aviso mejorado
Especificación de parámetros y procesamiento de respaldo
Esta API determina el modelo real que se utilizará en función del provider
y los parámetros model
especificados, con procesamiento de respaldo en caso de errores.
- Resolución del proveedor (
provider
)- Cuando no se especifica :
openrouter
se utiliza como proveedor predeterminado. - Cuando se especifica un valor no válido (distinto de
openai
oopenrouter
): se recurre al proveedor predeterminadoopenrouter
.
- Cuando no se especifica :
- Resolución del modelo (
model
)- Cuando no se especifica :
- Si el proveedor resuelto es
openrouter
: se utiliza el modelo predeterminadomistralai/mistral-small-3.1-24b-instruct:free
. - Si el proveedor resuelto es
openai
: se utiliza el modelo OpenAI predeterminado.
- Si el proveedor resuelto es
- Cuando se especifica (con un proveedor válido) :
- El nombre del modelo especificado se utiliza tal cual con el proveedor resuelto.
- Importante : en esta etapa, no se verifica si el nombre del modelo especificado realmente existe con el proveedor.
- Cuando no se especifica :
- Llamada API y reserva de errores
- Primero se intenta una llamada API con la combinación de proveedor y modelo resuelta por las reglas anteriores.
- Si ocurre un error durante la llamada API (por ejemplo, el modelo especificado no existe con el proveedor, error de autenticación de la clave API, etc.):
- Condición 1 : El proveedor del primer intento de llamada no es
openai
. - Condición 2 : La variable de entorno
OPENAI_API_KEY
está configurada en el sistema. - Si se cumplen ambas condiciones anteriores, el sistema vuelve a intentar automáticamente el proceso utilizando el modelo predeterminado del proveedor
openai
(este es el procesamiento de respaldo). - Si no se cumple una o ambas de las condiciones anteriores (por ejemplo, el primer intento fue con
openai
oOPENAI_API_KEY
no está configurado), se devuelve el error inicial como resultado final y este tipo de recuperación no ocurre.
- Condición 1 : El proveedor del primer intento de llamada no es
Notas sobre las variables de entorno:
- Se requiere
OPENROUTER_API_KEY
para utilizaropenrouter
. - Se requiere
OPENAI_API_KEY
para usaropenai
o para utilizar la función de respaldo mencionada anteriormente. - Si no se configura la clave API correspondiente, la llamada API fallará (la alternativa OpenAI también fallará dependiendo de las condiciones de la alternativa).
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Déjate llevar por lo salvaje
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Un servidor MCP que implementa la metodología de cadena de pensamientos recursivos (CoRT) que hace que la IA piense más al obligarla a discutir consigo misma repetidamente a través de múltiples rondas de generación y evaluación de alternativas.
Related MCP Servers
- AsecurityAlicenseAqualityThis is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directionsLast updated -316JavaScriptMIT License
- -securityAlicense-qualityAn MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.Last updated -48PythonMIT License
- -securityAlicense-qualityA minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.Last updated -5251TypeScriptMIT License
- -securityFlicense-qualityAn advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.Last updated -124Python