Just Prompt — легкий сервер MCP для поставщиков LLM
just-prompt — это сервер Model Control Protocol (MCP), который предоставляет унифицированный интерфейс для различных поставщиков Large Language Model (LLM), включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama. Посмотрите, как мы используем инструмент ceo_and_board , чтобы упростить принятие сложных решений с помощью o3, здесь .
Инструменты
На сервере доступны следующие инструменты MCP:
prompt: Отправить запрос нескольким моделям LLMПараметры:
text: Текст подсказкиmodels_prefixed_by_provider(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
prompt_from_file: отправка подсказки из файла нескольким моделям LLMПараметры:
file: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
prompt_from_file_to_file: отправка запроса из файла в несколько моделей LLM и сохранение ответов в виде файлов разметкиПараметры:
file: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider(необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.output_dir(по умолчанию: "."): Каталог для сохранения файлов разметки ответов
ceo_and_board: отправка запроса нескольким моделям «член совета директоров» и принятие решения моделью «генеральный директор» на основе их ответов.Параметры:
file: Путь к файлу, содержащему подсказкуmodels_prefixed_by_provider(необязательно): Список моделей с префиксами поставщиков для работы в качестве членов совета. Если не указано, используются модели по умолчанию.output_dir(по умолчанию: "."): Каталог для сохранения файлов ответов и решений генерального директораceo_model(по умолчанию: «openai:o3»): модель, используемая для принятия решения генеральным директором в формате «поставщик:модель»
list_providers: Список всех доступных поставщиков LLMПараметры: Нет
list_models: список всех доступных моделей для определенного поставщика LLMПараметры:
provider: поставщик для перечисления моделей (например, «openai» или «o»)
Related MCP server: Library Docs MCP Server
Префиксы провайдера
Каждая модель должна иметь префикс в виде имени поставщика.
используйте короткое имя для более быстрой ссылки
oилиopenai: OpenAIo:gpt-4o-miniopenai:gpt-4o-mini
aилиanthropic: антропныйa:claude-3-5-haikuanthropic:claude-3-5-haiku
gилиgemini: Google Близнецыg:gemini-2.5-pro-exp-03-25gemini:gemini-2.5-pro-exp-03-25
qилиgroq: Groqq:llama-3.1-70b-versatilegroq:llama-3.1-70b-versatile
dилиdeepseek: DeepSeekd:deepseek-coderdeepseek:deepseek-coder
lилиollama: Олламаl:llama3.1ollama:llama3.1
Функции
Унифицированный API для нескольких поставщиков LLM
Поддержка текстовых подсказок из строк или файлов
Запуск нескольких моделей параллельно
Автоматическая коррекция имени модели с использованием первой модели в списке
--default-modelsВозможность сохранения ответов в файлы
Удобный список доступных поставщиков и моделей
Установка
# Clone the repository
git clone https://github.com/yourusername/just-prompt.git
cd just-prompt
# Install with pip
uv syncПеременные среды
Создайте файл .env с вашими ключами API (можно скопировать файл .env.sample ):
cp .env.sample .envЗатем отредактируйте файл .env , чтобы добавить ключи API (или экспортируйте их в оболочку):
OPENAI_API_KEY=your_openai_api_key_here
ANTHROPIC_API_KEY=your_anthropic_api_key_here
GEMINI_API_KEY=your_gemini_api_key_here
GROQ_API_KEY=your_groq_api_key_here
DEEPSEEK_API_KEY=your_deepseek_api_key_here
OLLAMA_HOST=http://localhost:11434Установка кода Клода
Во всех этих примерах замените каталог на путь к каталогу just-prompt.
Модели по умолчанию установлены на openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 и gemini:gemini-2.5-flash-preview-04-17 .
Если вы используете Claude Code прямо из репозитория, вы можете увидеть в файле .mcp.json, что мы установили модели по умолчанию...
{
"mcpServers": {
"just-prompt": {
"type": "stdio",
"command": "uv",
"args": [
"--directory",
".",
"run",
"just-prompt",
"--default-models",
"openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"
],
"env": {}
}
}
}Параметр --default-models задает модели для использования, когда ни одна из них явно не указана для конечных точек API. Первая модель в списке также используется для исправления имени модели при необходимости. Это может быть список моделей, разделенных запятыми.
При запуске сервера он автоматически проверит, какие ключи API доступны в вашей среде, и сообщит, каких поставщиков вы можете использовать. Если ключ отсутствует, поставщик будет указан как недоступный, но сервер все равно запустится и может использоваться с доступными поставщиками.
Использование mcp add-json
Скопируйте это и вставьте в код Клода, НО не запускайте, пока не скопируете json
claude mcp add just-prompt "$(pbpaste)"JSON для копирования
{
"command": "uv",
"args": ["--directory", ".", "run", "just-prompt"]
}С пользовательской моделью по умолчанию, установленной на openai:gpt-4o .
{
"command": "uv",
"args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"]
}С несколькими моделями по умолчанию:
{
"command": "uv",
"args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"]
}Использование mcp add с областью действия проекта
# With default models
claude mcp add just-prompt -s project \
-- \
uv --directory . \
run just-prompt
# With custom default model
claude mcp add just-prompt -s project \
-- \
uv --directory . \
run just-prompt --default-models "openai:gpt-4o"
# With multiple default models
claude mcp add just-prompt -s user \
-- \
uv --directory . \
run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"mcp remove
claude mcp удалить просто-подсказка
Проведение тестов
uv run pytestСтруктура кодовой базы
.
├── ai_docs/ # Documentation for AI model details
│ ├── extending_thinking_sonny.md
│ ├── llm_providers_details.xml
│ ├── openai-reasoning-effort.md
│ └── pocket-pick-mcp-server-example.xml
├── example_outputs/ # Example outputs from different models
├── list_models.py # Script to list available LLM models
├── prompts/ # Example prompt files
├── pyproject.toml # Python project configuration
├── specs/ # Project specifications
│ ├── init-just-prompt.md
│ ├── new-tool-llm-as-a-ceo.md
│ └── oai-reasoning-levels.md
├── src/ # Source code directory
│ └── just_prompt/
│ ├── __init__.py
│ ├── __main__.py
│ ├── atoms/ # Core components
│ │ ├── llm_providers/ # Individual provider implementations
│ │ │ ├── anthropic.py
│ │ │ ├── deepseek.py
│ │ │ ├── gemini.py
│ │ │ ├── groq.py
│ │ │ ├── ollama.py
│ │ │ └── openai.py
│ │ └── shared/ # Shared utilities and data types
│ │ ├── data_types.py
│ │ ├── model_router.py
│ │ ├── utils.py
│ │ └── validator.py
│ ├── molecules/ # Higher-level functionality
│ │ ├── ceo_and_board_prompt.py
│ │ ├── list_models.py
│ │ ├── list_providers.py
│ │ ├── prompt.py
│ │ ├── prompt_from_file.py
│ │ └── prompt_from_file_to_file.py
│ ├── server.py # MCP server implementation
│ └── tests/ # Test directory
│ ├── atoms/ # Tests for atoms
│ │ ├── llm_providers/
│ │ └── shared/
│ └── molecules/ # Tests for molecules
│ ├── test_ceo_and_board_prompt.py
│ ├── test_list_models.py
│ ├── test_list_providers.py
│ ├── test_prompt.py
│ ├── test_prompt_from_file.py
│ └── test_prompt_from_file_to_file.py
└── ultra_diff_review/ # Diff review outputsКонтекстная подготовка
ПРОЧИТАЙТЕ README.md, pyproject.toml, затем запустите git ls-files и 'eza --git-ignore --tree', чтобы понять контекст проекта.
Обоснование усилий с OpenAI o‑Series
Для моделей рассуждений OpenAI серии o ( o4-mini , o3-mini , o3 ) вы можете контролировать объем внутренних рассуждений, выполняемых моделью перед выдачей видимого ответа.
Добавьте один из следующих суффиксов к названию модели (после префикса поставщика ):
:low– минимальные внутренние рассуждения (быстрее, дешевле):medium– сбалансированный (по умолчанию, если не указан):high– тщательное рассуждение (медленнее, больше токенов)
Примеры:
openai:o4-mini:lowo:o4-mini:high
При наличии суффикса reasoning just-prompt автоматически переключается на API OpenAI Responses (если он доступен) и устанавливает соответствующий параметр reasoning.effort . Если установленный OpenAI SDK более старый, он изящно возвращается к конечной точке Chat Completions и встраивает внутреннюю системную инструкцию для приблизительного соответствия запрошенному уровню усилий.
Думаем о жетонах с Клодом
Модель антропного Клода claude-3-7-sonnet-20250219 поддерживает расширенные мыслительные способности с использованием токенов мышления. Это позволяет Клоду проводить более тщательные мыслительные процессы перед ответом.
Вы можете включить токены мышления, добавив суффикс к имени модели в следующем формате:
anthropic:claude-3-7-sonnet-20250219:1k- Используйте 1024 жетона мышленияanthropic:claude-3-7-sonnet-20250219:4k- Используйте 4096 токенов мышленияanthropic:claude-3-7-sonnet-20250219:8000- Используйте 8000 жетонов мышления
Примечания:
Маркеры мышления поддерживаются только для модели
claude-3-7-sonnet-20250219Допустимые бюджеты токенов мышления варьируются от 1024 до 16000.
Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)
Думаем о бюджете с Близнецами
Модель Google Gemini gemini-2.5-flash-preview-04-17 поддерживает расширенные возможности мышления с использованием бюджета мышления. Это позволяет Gemini выполнять более тщательное рассуждение перед предоставлением ответа.
Вы можете включить функцию «думающего бюджета», добавив суффикс к названию модели в следующем формате:
gemini:gemini-2.5-flash-preview-04-17:1k- Используйте бюджет мышления 1024gemini:gemini-2.5-flash-preview-04-17:4k- Используйте 4096 бюджета мышленияgemini:gemini-2.5-flash-preview-04-17:8000- Используйте бюджет мышления 8000
Примечания:
Бюджет Thinking поддерживается только для модели
gemini-2.5-flash-preview-04-17Допустимый диапазон бюджета мышления от 0 до 24576
Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)
Ресурсы
Мастер кодирования ИИ
Научитесь программировать с помощью ИИ, изучив основные принципы кодирования ИИ
Подпишитесь на канал IndyDevDan на YouTube, чтобы получить больше советов и рекомендаций по программированию ИИ.