Skip to main content
Glama

CoRT MCP Server

Сервер CoRT MCP

Это сервер MCP Chain-of-Recursive-Thoughts (CORT). Оригинальный проект представлен ниже, я очень ценю оригинальную работу.

Оригинал: PhialsBasement/Chain-of-Recursive-Thoughts: Я заставил свой ИИ думать усерднее, заставив его спорить с самим собой неоднократно. Он работает тупо хорошо.
https://github.com/PhialsBasement/Цепочка-рекурсивных-мыслей

Примечание к выпуску

0.2.0 Обновлен список LLM 0.1.0 Первоначальный выпуск

Функции

  • Метод CoRT, доступный через MCP Server, который заставляет ИИ думать усерднее, заставляя его спорить с самим собой неоднократно. Он работает тупо хорошо.

Сработал чек

Код Ру / Клайн

Конфигурация хоста MCP

Рекомендуется тайм-аут в 300 секунд. (иногда может занять больше времени, чем ожидалось) Требуется OPENROUTER_API_KEY. https://openrouter.ai/

Пример: ведение журнала отключено

"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp", "--log=off"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }

Пример: Ведение журнала включено (требуется абсолютный путь к файлу журнала)

"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp", "--log=on", "--logfile=/workspace/logs/cort-mcp.log"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }
  • --log=off : Отключить все журналы (журналы не пишутся)
  • --log=on --logfile=/absolute/path/to/logfile.log : Включить ведение журнала и записывать журналы в указанный абсолютный путь к файлу
  • Оба аргумента требуются , если включено ведение журнала. Сервер выйдет с ошибкой, если один из них отсутствует, путь не абсолютный или если указаны недопустимые значения.

Примечание:

  • Если включено ведение журнала, журналы записываются только по указанному абсолютному пути к файлу. Относительные пути или пропуск --logfile приведут к ошибке.
  • Если ведение журнала отключено, журналы не выводятся.
  • Если требуемые аргументы отсутствуют или недействительны, сервер не запустится и выведет сообщение об ошибке.
  • Файл журнала должен быть доступен и доступен для записи процессу сервера MCP.
  • Если у вас возникли проблемы с запуском этого сервера, это может быть связано с кэшированием старой версии cort-mcp. Попробуйте запустить его с последней версией (установите xyz на последнюю версию) cort-mcp с помощью следующих настроек.
"CoRT-chain-of-recursive-thinking": { "command": "pipx", "args": ["run", "cort-mcp==x.y.z", "--log=off"], "env": { "OPENAI_API_KEY": "{apikey}", "OPENROUTER_API_KEY": "{apikey}" } }

Доступные инструменты

  • {toolname}.simple Подробностей нет, выводится только окончательно выбранная альтернатива.
  • {toolname}.details Включить сведения об истории ответов LLM.
  • {toolname}.mixed.llm Вывод нескольких LLM.
  • {toolname}.neweval Новое приглашение на оценку.

Проверьте приведенную ниже информацию.

Что такое CoRT?

Значительное улучшение по сравнению с оригиналом

Существует несколько усовершенствований оригинальной методологии CoRT.

  1. Вывод нескольких LLM : каждая альтернатива генерируется случайным образом с использованием разных LLM (модель + поставщик).
  2. Улучшение оценки : оценка подсказки обновлена путем добавления подсказки, которая просит ИИ объяснить свои рассуждения. (Исходная подсказка доступна с помощью инструментов)

Многоуровневый вывод LLM

Обзор: Это новый инструмент, который добавляет стратегию исследования «случайного выбора разных LLM (модель + поставщик) для каждой альтернативы» к обычному потоку мышления CoRT. Это позволяет вам максимально использовать знания и идеи гетерогенных моделей и выбирать оптимальное решение из более широкого диапазона вариантов.

  • функция доступна для смешанных инструментов llm.

Список магистров права

  • Для лучшего пользовательского опыта выбираются более легкие и быстрые модели.
MIXED_LLM_LIST = [ {"provider": "openai", "model": "gpt-4.1-nano"}, {"provider": "openrouter", "model": "meta-llama/llama-4-scout:free"}, {"provider": "openrouter", "model": "google/gemini-2.0-flash-exp:free"}, {"provider": "openrouter", "model": "mistralai/mistral-small-3.1-24b-instruct:free"}, {"provider": "openrouter", "model": "meta-llama/llama-3.2-3b-instruct:free"}, {"provider": "openrouter", "model": "thudm/glm-4-9b:free"}, ]

смешанный процесс обучения по программе LLM.

  • Для каждой альтернативы случайным образом выберите одного LLM (модель + поставщик) из списка выше.
  • Всегда записывайте в журнал «какая модель и поставщик были использованы» для каждой сгенерированной альтернативы.
  • В подробном режиме явно укажите «модель и поставщика, используемые для каждой альтернативы» в информации об истории ответов

Улучшение оценки

Обзор: Изменена подсказка оценки на более содержательную. (Исходная подсказка доступна через инструменты) Используйте подсказку от {toolname}.neweval, которая просит ИИ объяснить свои рассуждения.

Оригинальная подсказка

f"""Original message: {prompt} Evaluate these responses and choose the best one: Current best: {current_best} Alternatives: {chr(10).join([f"{i+1}. {alt}" for i, alt in enumerate(alternatives)])} Which response best addresses the original message? Consider accuracy, clarity, and completeness. First, respond with ONLY 'current' or a number (1-{len(alternatives)}). Then on a new line, explain your choice in one sentence."""

Расширенная подсказка

f""" Original message: {prompt} You are an expert evaluator tasked with selecting the response that best fulfills the user's true needs, considering multiple perspectives. Current best: {current_best} Alternatives: {chr(10).join([f"{i+1}. {alt}" for i, alt in enumerate(alternatives)])} Please follow this evaluation process: Intent Analysis: What is the user REALLY seeking? What underlying needs might be present beyond the surface question? Context Consideration: What possible situations or backgrounds could this question arise from? Diversity Assessment: Does the response consider different viewpoints or possible interpretations? Practicality Evaluation: How useful would the response be in the user's real-world context? Consistency Check: Is the response internally consistent and logically coherent? For each response (including the current best): Does it solve the user's TRUE problem? Does it balance accuracy and usefulness? Does it avoid unnecessary assumptions or biases? Is it flexible enough to apply in various contexts or situations? Does it account for exceptions or special cases? After completing your evaluation: Indicate your choice with ONLY 'current' or a number (1-{len(alternatives)}). On the next line, explain specifically why this response best meets the user's true needs. """

Спецификация параметров и резервная обработка

Этот API определяет фактическую модель, которая будет использоваться, на основе указанного provider и параметров model , с резервной обработкой в случае ошибок.

  1. Провайдер ( provider ) Разрешение
    • Если не указано иное : в качестве провайдера по умолчанию используется openrouter .
    • Если указано недопустимое значение (отличное от openai или openrouter ): возвращается к поставщику по умолчанию openrouter .
  2. Модель ( model ) Разрешение
    • Если не указано иное :
      • Если разрешенный поставщик — openrouter : используется модель по умолчанию mistralai/mistral-small-3.1-24b-instruct:free .
      • Если разрешенный поставщик — openai : используется модель OpenAI по умолчанию.
    • Если указано (с действительным поставщиком) :
      • Указанное имя модели используется «как есть» с разрешенным поставщиком.
      • Важно : На данном этапе не проверяется, существует ли указанное название модели у поставщика.
  3. Вызов API и откат к ошибке
    • Сначала выполняется попытка вызова API с комбинацией поставщика и модели, определенной в соответствии с приведенными выше правилами.
    • Если во время вызова API возникла ошибка (например, указанная модель не существует у провайдера, ошибка аутентификации ключа API и т. д.):
      • Условие 1 : Провайдер первой попытки звонка не является openai .
      • Условие 2 : В системе установлена переменная среды OPENAI_API_KEY .
      • Если оба вышеуказанных условия выполнены, система автоматически повторяет процесс, используя модель по умолчанию поставщика openai (это резервная обработка).
      • Если одно или оба из вышеперечисленных условий не выполнены (например, первая попытка была с openai или OPENAI_API_KEY не установлен), в качестве конечного результата возвращается начальная ошибка, и этот тип отката не происходит.

Примечания к переменным среды:

  • Для использования openrouter требуется OPENROUTER_API_KEY .
  • Для использования openai или указанной выше резервной функции требуется OPENAI_API_KEY .
  • Если соответствующий ключ API не установлен, вызов API завершится ошибкой (возврат к OpenAI также завершится ошибкой в зависимости от условий возврата).

Лицензия

Массачусетский технологический институт

Дайте волю эмоциям

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Сервер MCP, реализующий методологию цепочки рекурсивных мыслей (CoRT), которая заставляет ИИ думать усерднее, заставляя его многократно спорить с самим собой посредством нескольких раундов генерации и оценки альтернатив.

  1. Примечание к выпуску
    1. Функции
      1. Сработал чек
        1. Конфигурация хоста MCP
          1. Пример: ведение журнала отключено
          2. Пример: Ведение журнала включено (требуется абсолютный путь к файлу журнала)
        2. Доступные инструменты
          1. Что такое CoRT?
            1. Значительное улучшение по сравнению с оригиналом
              1. Многоуровневый вывод LLM
              2. Список магистров права
              3. смешанный процесс обучения по программе LLM.
            2. Улучшение оценки
              1. Оригинальная подсказка
              2. Расширенная подсказка
              3. Спецификация параметров и резервная обработка
            3. Лицензия

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                This is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directions
                Last updated -
                3
                16
                JavaScript
                MIT License
                • Apple
              • -
                security
                A
                license
                -
                quality
                An MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.
                Last updated -
                48
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                A
                license
                -
                quality
                A minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.
                Last updated -
                525
                1
                TypeScript
                MIT License
                • Apple
              • -
                security
                F
                license
                -
                quality
                An advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.
                Last updated -
                124
                Python
                • Linux
                • Apple

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/KunihiroS/cort-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server