Сервер CoRT MCP
Это сервер MCP Chain-of-Recursive-Thoughts (CORT). Оригинальный проект представлен ниже, я очень ценю оригинальную работу.
Оригинал: PhialsBasement/Chain-of-Recursive-Thoughts: Я заставил свой ИИ думать усерднее, заставив его спорить с самим собой неоднократно. Он работает тупо хорошо.
https://github.com/PhialsBasement/Цепочка-рекурсивных-мыслей
Примечание к выпуску
0.2.0 Обновлен список LLM 0.1.0 Первоначальный выпуск
Related MCP server: think-mcp-server
Функции
Метод CoRT, доступный через MCP Server, который заставляет ИИ думать усерднее, заставляя его спорить с самим собой неоднократно. Он работает тупо хорошо.
Сработал чек
Код Ру / Клайн
Конфигурация хоста MCP
Рекомендуется тайм-аут в 300 секунд. (иногда может занять больше времени, чем ожидалось) Требуется OPENROUTER_API_KEY. https://openrouter.ai/
Пример: ведение журнала отключено
Пример: Ведение журнала включено (требуется абсолютный путь к файлу журнала)
--log=off: Отключить все журналы (журналы не пишутся)--log=on --logfile=/absolute/path/to/logfile.log: Включить ведение журнала и записывать журналы в указанный абсолютный путь к файлуОба аргумента требуются , если включено ведение журнала. Сервер выйдет с ошибкой, если один из них отсутствует, путь не абсолютный или если указаны недопустимые значения.
Примечание:
Если включено ведение журнала, журналы записываются только по указанному абсолютному пути к файлу. Относительные пути или пропуск
--logfileприведут к ошибке.Если ведение журнала отключено, журналы не выводятся.
Если требуемые аргументы отсутствуют или недействительны, сервер не запустится и выведет сообщение об ошибке.
Файл журнала должен быть доступен и доступен для записи процессу сервера MCP.
Если у вас возникли проблемы с запуском этого сервера, это может быть связано с кэшированием старой версии cort-mcp. Попробуйте запустить его с последней версией (установите
xyzна последнюю версию) cort-mcp с помощью следующих настроек.
Доступные инструменты
{toolname}.simple Подробностей нет, выводится только окончательно выбранная альтернатива.
{toolname}.details Включить сведения об истории ответов LLM.
{toolname}.mixed.llm Вывод нескольких LLM.
{toolname}.neweval Новое приглашение на оценку.
Проверьте приведенную ниже информацию.
Что такое CoRT?
Значительное улучшение по сравнению с оригиналом
Существует несколько усовершенствований оригинальной методологии CoRT.
Вывод нескольких LLM : каждая альтернатива генерируется случайным образом с использованием разных LLM (модель + поставщик).
Улучшение оценки : оценка подсказки обновлена путем добавления подсказки, которая просит ИИ объяснить свои рассуждения. (Исходная подсказка доступна с помощью инструментов)
Многоуровневый вывод LLM
Обзор: Это новый инструмент, который добавляет стратегию исследования «случайного выбора разных LLM (модель + поставщик) для каждой альтернативы» к обычному потоку мышления CoRT. Это позволяет вам максимально использовать знания и идеи гетерогенных моделей и выбирать оптимальное решение из более широкого диапазона вариантов.
функция доступна для смешанных инструментов llm.
Список магистров права
Для лучшего пользовательского опыта выбираются более легкие и быстрые модели.
смешанный процесс обучения по программе LLM.
Для каждой альтернативы случайным образом выберите одного LLM (модель + поставщик) из списка выше.
Всегда записывайте в журнал «какая модель и поставщик были использованы» для каждой сгенерированной альтернативы.
В подробном режиме явно укажите «модель и поставщика, используемые для каждой альтернативы» в информации об истории ответов
Улучшение оценки
Обзор: Изменена подсказка оценки на более содержательную. (Исходная подсказка доступна через инструменты) Используйте подсказку от {toolname}.neweval, которая просит ИИ объяснить свои рассуждения.
Оригинальная подсказка
Расширенная подсказка
Спецификация параметров и резервная обработка
Этот API определяет фактическую модель, которая будет использоваться, на основе указанного provider и параметров model , с резервной обработкой в случае ошибок.
Провайдер (
Если не указано иное : в качестве провайдера по умолчанию используется
openrouter.Если указано недопустимое значение (отличное от
openaiилиopenrouter): возвращается к поставщику по умолчаниюopenrouter.
Модель (
Если не указано иное :
Если разрешенный поставщик —
openrouter: используется модель по умолчаниюmistralai/mistral-small-3.1-24b-instruct:free.Если разрешенный поставщик —
openai: используется модель OpenAI по умолчанию.
Если указано (с действительным поставщиком) :
Указанное имя модели используется «как есть» с разрешенным поставщиком.
Важно : На данном этапе не проверяется, существует ли указанное название модели у поставщика.
Вызов API и откат к ошибке
Сначала выполняется попытка вызова API с комбинацией поставщика и модели, определенной в соответствии с приведенными выше правилами.
Если во время вызова API возникла ошибка (например, указанная модель не существует у провайдера, ошибка аутентификации ключа API и т. д.):
Условие 1 : Провайдер первой попытки звонка не является
openai.Условие 2 : В системе установлена переменная среды
OPENAI_API_KEY.Если оба вышеуказанных условия выполнены, система автоматически повторяет процесс, используя модель по умолчанию поставщика (это резервная обработка).
Если одно или оба из вышеперечисленных условий не выполнены (например, первая попытка была с
openaiилиOPENAI_API_KEYне установлен), в качестве конечного результата возвращается начальная ошибка, и этот тип отката не происходит.
Примечания к переменным среды:
Для использования
openrouterтребуетсяOPENROUTER_API_KEY.Для использования
openaiили указанной выше резервной функции требуетсяOPENAI_API_KEY.Если соответствующий ключ API не установлен, вызов API завершится ошибкой (возврат к OpenAI также завершится ошибкой в зависимости от условий возврата).
Лицензия
Массачусетский технологический институт
Дайте волю эмоциям