Сервер CoRT MCP
Это сервер MCP Chain-of-Recursive-Thoughts (CORT). Оригинальный проект представлен ниже, я очень ценю оригинальную работу.
Оригинал: PhialsBasement/Chain-of-Recursive-Thoughts: Я заставил свой ИИ думать усерднее, заставив его спорить с самим собой неоднократно. Он работает тупо хорошо.
https://github.com/PhialsBasement/Цепочка-рекурсивных-мыслей
Примечание к выпуску
0.2.0 Обновлен список LLM 0.1.0 Первоначальный выпуск
Функции
- Метод CoRT, доступный через MCP Server, который заставляет ИИ думать усерднее, заставляя его спорить с самим собой неоднократно. Он работает тупо хорошо.
Сработал чек
Код Ру / Клайн
Конфигурация хоста MCP
Рекомендуется тайм-аут в 300 секунд. (иногда может занять больше времени, чем ожидалось) Требуется OPENROUTER_API_KEY. https://openrouter.ai/
Пример: ведение журнала отключено
Пример: Ведение журнала включено (требуется абсолютный путь к файлу журнала)
--log=off
: Отключить все журналы (журналы не пишутся)--log=on --logfile=/absolute/path/to/logfile.log
: Включить ведение журнала и записывать журналы в указанный абсолютный путь к файлу- Оба аргумента требуются , если включено ведение журнала. Сервер выйдет с ошибкой, если один из них отсутствует, путь не абсолютный или если указаны недопустимые значения.
Примечание:
- Если включено ведение журнала, журналы записываются только по указанному абсолютному пути к файлу. Относительные пути или пропуск
--logfile
приведут к ошибке.- Если ведение журнала отключено, журналы не выводятся.
- Если требуемые аргументы отсутствуют или недействительны, сервер не запустится и выведет сообщение об ошибке.
- Файл журнала должен быть доступен и доступен для записи процессу сервера MCP.
- Если у вас возникли проблемы с запуском этого сервера, это может быть связано с кэшированием старой версии cort-mcp. Попробуйте запустить его с последней версией (установите
xyz
на последнюю версию) cort-mcp с помощью следующих настроек.
Доступные инструменты
- {toolname}.simple Подробностей нет, выводится только окончательно выбранная альтернатива.
- {toolname}.details Включить сведения об истории ответов LLM.
- {toolname}.mixed.llm Вывод нескольких LLM.
- {toolname}.neweval Новое приглашение на оценку.
Проверьте приведенную ниже информацию.
Что такое CoRT?
Значительное улучшение по сравнению с оригиналом
Существует несколько усовершенствований оригинальной методологии CoRT.
- Вывод нескольких LLM : каждая альтернатива генерируется случайным образом с использованием разных LLM (модель + поставщик).
- Улучшение оценки : оценка подсказки обновлена путем добавления подсказки, которая просит ИИ объяснить свои рассуждения. (Исходная подсказка доступна с помощью инструментов)
Многоуровневый вывод LLM
Обзор: Это новый инструмент, который добавляет стратегию исследования «случайного выбора разных LLM (модель + поставщик) для каждой альтернативы» к обычному потоку мышления CoRT. Это позволяет вам максимально использовать знания и идеи гетерогенных моделей и выбирать оптимальное решение из более широкого диапазона вариантов.
- функция доступна для смешанных инструментов llm.
Список магистров права
- Для лучшего пользовательского опыта выбираются более легкие и быстрые модели.
смешанный процесс обучения по программе LLM.
- Для каждой альтернативы случайным образом выберите одного LLM (модель + поставщик) из списка выше.
- Всегда записывайте в журнал «какая модель и поставщик были использованы» для каждой сгенерированной альтернативы.
- В подробном режиме явно укажите «модель и поставщика, используемые для каждой альтернативы» в информации об истории ответов
Улучшение оценки
Обзор: Изменена подсказка оценки на более содержательную. (Исходная подсказка доступна через инструменты) Используйте подсказку от {toolname}.neweval, которая просит ИИ объяснить свои рассуждения.
Оригинальная подсказка
Расширенная подсказка
Спецификация параметров и резервная обработка
Этот API определяет фактическую модель, которая будет использоваться, на основе указанного provider
и параметров model
, с резервной обработкой в случае ошибок.
- Провайдер (
provider
) Разрешение- Если не указано иное : в качестве провайдера по умолчанию используется
openrouter
. - Если указано недопустимое значение (отличное от
openai
илиopenrouter
): возвращается к поставщику по умолчаниюopenrouter
.
- Если не указано иное : в качестве провайдера по умолчанию используется
- Модель (
model
) Разрешение- Если не указано иное :
- Если разрешенный поставщик —
openrouter
: используется модель по умолчаниюmistralai/mistral-small-3.1-24b-instruct:free
. - Если разрешенный поставщик —
openai
: используется модель OpenAI по умолчанию.
- Если разрешенный поставщик —
- Если указано (с действительным поставщиком) :
- Указанное имя модели используется «как есть» с разрешенным поставщиком.
- Важно : На данном этапе не проверяется, существует ли указанное название модели у поставщика.
- Если не указано иное :
- Вызов API и откат к ошибке
- Сначала выполняется попытка вызова API с комбинацией поставщика и модели, определенной в соответствии с приведенными выше правилами.
- Если во время вызова API возникла ошибка (например, указанная модель не существует у провайдера, ошибка аутентификации ключа API и т. д.):
- Условие 1 : Провайдер первой попытки звонка не является
openai
. - Условие 2 : В системе установлена переменная среды
OPENAI_API_KEY
. - Если оба вышеуказанных условия выполнены, система автоматически повторяет процесс, используя модель по умолчанию поставщика
openai
(это резервная обработка). - Если одно или оба из вышеперечисленных условий не выполнены (например, первая попытка была с
openai
илиOPENAI_API_KEY
не установлен), в качестве конечного результата возвращается начальная ошибка, и этот тип отката не происходит.
- Условие 1 : Провайдер первой попытки звонка не является
Примечания к переменным среды:
- Для использования
openrouter
требуетсяOPENROUTER_API_KEY
. - Для использования
openai
или указанной выше резервной функции требуетсяOPENAI_API_KEY
. - Если соответствующий ключ API не установлен, вызов API завершится ошибкой (возврат к OpenAI также завершится ошибкой в зависимости от условий возврата).
Лицензия
Массачусетский технологический институт
Дайте волю эмоциям
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Сервер MCP, реализующий методологию цепочки рекурсивных мыслей (CoRT), которая заставляет ИИ думать усерднее, заставляя его многократно спорить с самим собой посредством нескольких раундов генерации и оценки альтернатив.
Related MCP Servers
- AsecurityAlicenseAqualityThis is a MCP server that implements an unreasonable thinking system. It helps generate unconventional solutions: Generating unreasonable thoughts that challenge conventional wisdom. Creating branches of thinking in different directionsLast updated -316JavaScriptMIT License
- -securityAlicense-qualityAn MCP server that implements the 'think' tool, providing Claude with a dedicated space for structured thinking during complex problem-solving tasks to improve reasoning capabilities.Last updated -48PythonMIT License
- -securityAlicense-qualityA minimal MCP Server that provides Claude AI models with the 'think' tool capability, enabling better performance on complex reasoning tasks by allowing the model to pause during response generation for additional thinking steps.Last updated -5251TypeScriptMIT License
- -securityFlicense-qualityAn advanced MCP server that implements sophisticated sequential thinking using a coordinated team of specialized AI agents (Planner, Researcher, Analyzer, Critic, Synthesizer) to deeply analyze problems and provide high-quality, structured reasoning.Last updated -124Python