Skip to main content
Glama

Just Prompt — легкий сервер MCP для поставщиков LLM

just-prompt — это сервер Model Control Protocol (MCP), который предоставляет унифицированный интерфейс для различных поставщиков Large Language Model (LLM), включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama. Посмотрите, как мы используем инструмент ceo_and_board , чтобы упростить принятие сложных решений с помощью o3, здесь .

Инструменты

На сервере доступны следующие инструменты MCP:

  • prompt : Отправить запрос нескольким моделям LLM

    • Параметры:

      • text : Текст подсказки

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.

  • prompt_from_file : отправка подсказки из файла нескольким моделям LLM

    • Параметры:

      • file : Путь к файлу, содержащему подсказку

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.

  • prompt_from_file_to_file : отправка запроса из файла в несколько моделей LLM и сохранение ответов в виде файлов разметки

    • Параметры:

      • file : Путь к файлу, содержащему подсказку

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.

      • output_dir (по умолчанию: "."): Каталог для сохранения файлов разметки ответов

  • ceo_and_board : отправка запроса нескольким моделям «член совета директоров» и принятие решения моделью «генеральный директор» на основе их ответов.

    • Параметры:

      • file : Путь к файлу, содержащему подсказку

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами поставщиков для работы в качестве членов совета. Если не указано, используются модели по умолчанию.

      • output_dir (по умолчанию: "."): Каталог для сохранения файлов ответов и решений генерального директора

      • ceo_model (по умолчанию: «openai:o3»): модель, используемая для принятия решения генеральным директором в формате «поставщик:модель»

  • list_providers : Список всех доступных поставщиков LLM

    • Параметры: Нет

  • list_models : список всех доступных моделей для определенного поставщика LLM

    • Параметры:

      • provider : поставщик для перечисления моделей (например, «openai» или «o»)

Related MCP server: Library Docs MCP Server

Префиксы провайдера

Каждая модель должна иметь префикс в виде имени поставщика.

используйте короткое имя для более быстрой ссылки

  • o или openai : OpenAI

    • o:gpt-4o-mini

    • openai:gpt-4o-mini

  • a или anthropic : антропный

    • a:claude-3-5-haiku

    • anthropic:claude-3-5-haiku

  • g или gemini : Google Близнецы

    • g:gemini-2.5-pro-exp-03-25

    • gemini:gemini-2.5-pro-exp-03-25

  • q или groq : Groq

    • q:llama-3.1-70b-versatile

    • groq:llama-3.1-70b-versatile

  • d или deepseek : DeepSeek

    • d:deepseek-coder

    • deepseek:deepseek-coder

  • l или ollama : Оллама

    • l:llama3.1

    • ollama:llama3.1

Функции

  • Унифицированный API для нескольких поставщиков LLM

  • Поддержка текстовых подсказок из строк или файлов

  • Запуск нескольких моделей параллельно

  • Автоматическая коррекция имени модели с использованием первой модели в списке --default-models

  • Возможность сохранения ответов в файлы

  • Удобный список доступных поставщиков и моделей

Установка

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

Переменные среды

Создайте файл .env с вашими ключами API (можно скопировать файл .env.sample ):

cp .env.sample .env

Затем отредактируйте файл .env , чтобы добавить ключи API (или экспортируйте их в оболочку):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

Установка кода Клода

Во всех этих примерах замените каталог на путь к каталогу just-prompt.

Модели по умолчанию установлены на openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 и gemini:gemini-2.5-flash-preview-04-17 .

Если вы используете Claude Code прямо из репозитория, вы можете увидеть в файле .mcp.json, что мы установили модели по умолчанию...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17" ], "env": {} } } }

Параметр --default-models задает модели для использования, когда ни одна из них явно не указана для конечных точек API. Первая модель в списке также используется для исправления имени модели при необходимости. Это может быть список моделей, разделенных запятыми.

При запуске сервера он автоматически проверит, какие ключи API доступны в вашей среде, и сообщит, каких поставщиков вы можете использовать. Если ключ отсутствует, поставщик будет указан как недоступный, но сервер все равно запустится и может использоваться с доступными поставщиками.

Использование mcp add-json

Скопируйте это и вставьте в код Клода, НО не запускайте, пока не скопируете json

claude mcp add just-prompt "$(pbpaste)"

JSON для копирования

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

С пользовательской моделью по умолчанию, установленной на openai:gpt-4o .

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

С несколькими моделями по умолчанию:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"] }

Использование mcp add с областью действия проекта

# With default models claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

claude mcp удалить просто-подсказка

Проведение тестов

uv run pytest

Структура кодовой базы

. ├── ai_docs/ # Documentation for AI model details │ ├── extending_thinking_sonny.md │ ├── llm_providers_details.xml │ ├── openai-reasoning-effort.md │ └── pocket-pick-mcp-server-example.xml ├── example_outputs/ # Example outputs from different models ├── list_models.py # Script to list available LLM models ├── prompts/ # Example prompt files ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ ├── init-just-prompt.md │ ├── new-tool-llm-as-a-ceo.md │ └── oai-reasoning-levels.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── ceo_and_board_prompt.py │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules │ ├── test_ceo_and_board_prompt.py │ ├── test_list_models.py │ ├── test_list_providers.py │ ├── test_prompt.py │ ├── test_prompt_from_file.py │ └── test_prompt_from_file_to_file.py └── ultra_diff_review/ # Diff review outputs

Контекстная подготовка

ПРОЧИТАЙТЕ README.md, pyproject.toml, затем запустите git ls-files и 'eza --git-ignore --tree', чтобы понять контекст проекта.

Обоснование усилий с OpenAI o‑Series

Для моделей рассуждений OpenAI серии o ( o4-mini , o3-mini , o3 ) вы можете контролировать объем внутренних рассуждений, выполняемых моделью перед выдачей видимого ответа.

Добавьте один из следующих суффиксов к названию модели (после префикса поставщика ):

  • :low – минимальные внутренние рассуждения (быстрее, дешевле)

  • :medium – сбалансированный (по умолчанию, если не указан)

  • :high – тщательное рассуждение (медленнее, больше токенов)

Примеры:

  • openai:o4-mini:low

  • o:o4-mini:high

При наличии суффикса reasoning just-prompt автоматически переключается на API OpenAI Responses (если он доступен) и устанавливает соответствующий параметр reasoning.effort . Если установленный OpenAI SDK более старый, он изящно возвращается к конечной точке Chat Completions и встраивает внутреннюю системную инструкцию для приблизительного соответствия запрошенному уровню усилий.

Думаем о жетонах с Клодом

Модель антропного Клода claude-3-7-sonnet-20250219 поддерживает расширенные мыслительные способности с использованием токенов мышления. Это позволяет Клоду проводить более тщательные мыслительные процессы перед ответом.

Вы можете включить токены мышления, добавив суффикс к имени модели в следующем формате:

  • anthropic:claude-3-7-sonnet-20250219:1k - Используйте 1024 жетона мышления

  • anthropic:claude-3-7-sonnet-20250219:4k - Используйте 4096 токенов мышления

  • anthropic:claude-3-7-sonnet-20250219:8000 - Используйте 8000 жетонов мышления

Примечания:

  • Маркеры мышления поддерживаются только для модели claude-3-7-sonnet-20250219

  • Допустимые бюджеты токенов мышления варьируются от 1024 до 16000.

  • Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.

  • Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)

Думаем о бюджете с Близнецами

Модель Google Gemini gemini-2.5-flash-preview-04-17 поддерживает расширенные возможности мышления с использованием бюджета мышления. Это позволяет Gemini выполнять более тщательное рассуждение перед предоставлением ответа.

Вы можете включить функцию «думающего бюджета», добавив суффикс к названию модели в следующем формате:

  • gemini:gemini-2.5-flash-preview-04-17:1k - Используйте бюджет мышления 1024

  • gemini:gemini-2.5-flash-preview-04-17:4k - Используйте 4096 бюджета мышления

  • gemini:gemini-2.5-flash-preview-04-17:8000 - Используйте бюджет мышления 8000

Примечания:

  • Бюджет Thinking поддерживается только для модели gemini-2.5-flash-preview-04-17

  • Допустимый диапазон бюджета мышления от 0 до 24576

  • Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.

  • Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)

Ресурсы

Мастер кодирования ИИ

Научитесь программировать с помощью ИИ, изучив основные принципы кодирования ИИ

Подпишитесь на канал IndyDevDan на YouTube, чтобы получить больше советов и рекомендаций по программированию ИИ.

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

If you have feedback or need assistance with the MCP directory API, please join our Discord server