Just Prompt — легкий сервер MCP для поставщиков LLM
just-prompt — это сервер Model Control Protocol (MCP), который предоставляет унифицированный интерфейс для различных поставщиков Large Language Model (LLM), включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama. Посмотрите, как мы используем инструмент ceo_and_board , чтобы упростить принятие сложных решений с помощью o3, здесь .
Инструменты
На сервере доступны следующие инструменты MCP:
prompt: Отправить запрос нескольким моделям LLMПараметры:
text: Текст подсказкиmodels_prefixed_by_provider(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
prompt_from_file: отправка подсказки из файла нескольким моделям LLMПараметры:
file: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
prompt_from_file_to_file: отправка запроса из файла в несколько моделей LLM и сохранение ответов в виде файлов разметкиПараметры:
file: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.output_dir(по умолчанию: "."): Каталог для сохранения файлов разметки ответов
ceo_and_board: отправка запроса нескольким моделям «член совета директоров» и принятие решения моделью «генеральный директор» на основе их ответов.Параметры:
file: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider(необязательно): Список моделей с префиксами поставщиков для работы в качестве членов совета. Если не указано, используются модели по умолчанию.output_dir(по умолчанию: "."): Каталог для сохранения файлов ответов и решений генерального директораceo_model(по умолчанию: «openai:o3»): модель, используемая для принятия решения генеральным директором в формате «поставщик:модель»
list_providers: Список всех доступных поставщиков LLMПараметры: Нет
list_models: список всех доступных моделей для определенного поставщика LLMПараметры:
provider: поставщик для перечисления моделей (например, «openai» или «o»)
Related MCP server: Library Docs MCP Server
Префиксы провайдера
Каждая модель должна иметь префикс в виде имени поставщика.
используйте короткое имя для более быстрой ссылки
oилиopenai: OpenAIo:gpt-4o-miniopenai:gpt-4o-mini
aилиanthropic: антропныйa:claude-3-5-haikuanthropic:claude-3-5-haiku
gилиgemini: Google Близнецыg:gemini-2.5-pro-exp-03-25gemini:gemini-2.5-pro-exp-03-25
qилиgroq: Groqq:llama-3.1-70b-versatilegroq:llama-3.1-70b-versatile
dилиdeepseek: DeepSeekd:deepseek-coderdeepseek:deepseek-coder
lилиollama: Олламаl:llama3.1ollama:llama3.1
Функции
Унифицированный API для нескольких поставщиков LLM
Поддержка текстовых подсказок из строк или файлов
Запуск нескольких моделей параллельно
Автоматическая коррекция имени модели с использованием первой модели в списке
--default-modelsВозможность сохранения ответов в файлы
Удобный список доступных поставщиков и моделей
Установка
Переменные среды
Создайте файл .env с вашими ключами API (можно скопировать файл .env.sample ):
Затем отредактируйте файл .env , чтобы добавить ключи API (или экспортируйте их в оболочку):
Установка кода Клода
Во всех этих примерах замените каталог на путь к каталогу just-prompt.
Модели по умолчанию установлены на openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 и gemini:gemini-2.5-flash-preview-04-17 .
Если вы используете Claude Code прямо из репозитория, вы можете увидеть в файле .mcp.json, что мы установили модели по умолчанию...
Параметр --default-models задает модели для использования, когда ни одна из них явно не указана для конечных точек API. Первая модель в списке также используется для исправления имени модели при необходимости. Это может быть список моделей, разделенных запятыми.
При запуске сервера он автоматически проверит, какие ключи API доступны в вашей среде, и сообщит, каких поставщиков вы можете использовать. Если ключ отсутствует, поставщик будет указан как недоступный, но сервер все равно запустится и может использоваться с доступными поставщиками.
Использование mcp add-json
Скопируйте это и вставьте в код Клода, НО не запускайте, пока не скопируете json
JSON для копирования
С пользовательской моделью по умолчанию, установленной на openai:gpt-4o .
С несколькими моделями по умолчанию:
Использование mcp add с областью действия проекта
mcp remove
claude mcp удалить просто-подсказка
Проведение тестов
Структура кодовой базы
Контекстная подготовка
ПРОЧИТАЙТЕ README.md, pyproject.toml, затем запустите git ls-files и 'eza --git-ignore --tree', чтобы понять контекст проекта.
Обоснование усилий с OpenAI o‑Series
Для моделей рассуждений OpenAI серии o ( o4-mini , o3-mini , o3 ) вы можете контролировать объем внутренних рассуждений, выполняемых моделью перед выдачей видимого ответа.
Добавьте один из следующих суффиксов к названию модели (после префикса поставщика ):
:low– минимальные внутренние рассуждения (быстрее, дешевле):medium– сбалансированный (по умолчанию, если не указан):high– тщательное рассуждение (медленнее, больше токенов)
Примеры:
openai:o4-mini:lowo:o4-mini:high
При наличии суффикса reasoning just-prompt автоматически переключается на API OpenAI Responses (если он доступен) и устанавливает соответствующий параметр reasoning.effort . Если установленный OpenAI SDK более старый, он изящно возвращается к конечной точке Chat Completions и встраивает внутреннюю системную инструкцию для приблизительного соответствия запрошенному уровню усилий.
Думаем о жетонах с Клодом
Модель антропного Клода claude-3-7-sonnet-20250219 поддерживает расширенные мыслительные способности с использованием токенов мышления. Это позволяет Клоду проводить более тщательные мыслительные процессы перед ответом.
Вы можете включить токены мышления, добавив суффикс к имени модели в следующем формате:
anthropic:claude-3-7-sonnet-20250219:1k- Используйте 1024 жетона мышленияanthropic:claude-3-7-sonnet-20250219:4k- Используйте 4096 токенов мышленияanthropic:claude-3-7-sonnet-20250219:8000- Используйте 8000 жетонов мышления
Примечания:
Маркеры мышления поддерживаются только для модели
claude-3-7-sonnet-20250219Допустимые бюджеты токенов мышления варьируются от 1024 до 16000.
Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)
Думаем о бюджете с Близнецами
Модель Google Gemini gemini-2.5-flash-preview-04-17 поддерживает расширенные возможности мышления с использованием бюджета мышления. Это позволяет Gemini выполнять более тщательное рассуждение перед предоставлением ответа.
Вы можете включить функцию «думающего бюджета», добавив суффикс к названию модели в следующем формате:
gemini:gemini-2.5-flash-preview-04-17:1k- Используйте бюджет мышления 1024gemini:gemini-2.5-flash-preview-04-17:4k- Используйте 4096 бюджета мышленияgemini:gemini-2.5-flash-preview-04-17:8000- Используйте бюджет мышления 8000
Примечания:
Бюджет Thinking поддерживается только для модели
gemini-2.5-flash-preview-04-17Допустимый диапазон бюджета мышления от 0 до 24576
Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)
Ресурсы
Мастер кодирования ИИ
Научитесь программировать с помощью ИИ, изучив основные принципы кодирования ИИ
Подпишитесь на канал IndyDevDan на YouTube, чтобы получить больше советов и рекомендаций по программированию ИИ.