Skip to main content
Glama

Just Prompt — легкий сервер MCP для поставщиков LLM

just-prompt — это сервер Model Control Protocol (MCP), который предоставляет унифицированный интерфейс для различных поставщиков Large Language Model (LLM), включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama. Посмотрите, как мы используем инструмент ceo_and_board , чтобы упростить принятие сложных решений с помощью o3, здесь .

Инструменты

На сервере доступны следующие инструменты MCP:

  • prompt : Отправить запрос нескольким моделям LLM

    • Параметры:

      • text : Текст подсказки

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.

  • prompt_from_file : отправка подсказки из файла нескольким моделям LLM

    • Параметры:

      • file : Путь к файлу, содержащему подсказку

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.

  • prompt_from_file_to_file : отправка запроса из файла в несколько моделей LLM и сохранение ответов в виде файлов разметки

    • Параметры:

      • file : Путь к файлу, содержащему подсказку

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.

      • output_dir (по умолчанию: "."): Каталог для сохранения файлов разметки ответов

  • ceo_and_board : отправка запроса нескольким моделям «член совета директоров» и принятие решения моделью «генеральный директор» на основе их ответов.

    • Параметры:

      • file : Путь к файлу, содержащему подсказку

      • models_prefixed_by_provider (необязательно): Список моделей с префиксами поставщиков для работы в качестве членов совета. Если не указано, используются модели по умолчанию.

      • output_dir (по умолчанию: "."): Каталог для сохранения файлов ответов и решений генерального директора

      • ceo_model (по умолчанию: «openai:o3»): модель, используемая для принятия решения генеральным директором в формате «поставщик:модель»

  • list_providers : Список всех доступных поставщиков LLM

    • Параметры: Нет

  • list_models : список всех доступных моделей для определенного поставщика LLM

    • Параметры:

      • provider : поставщик для перечисления моделей (например, «openai» или «o»)

Related MCP server: Library Docs MCP Server

Префиксы провайдера

Каждая модель должна иметь префикс в виде имени поставщика.

используйте короткое имя для более быстрой ссылки

  • o или openai : OpenAI

    • o:gpt-4o-mini

    • openai:gpt-4o-mini

  • a или anthropic : антропный

    • a:claude-3-5-haiku

    • anthropic:claude-3-5-haiku

  • g или gemini : Google Близнецы

    • g:gemini-2.5-pro-exp-03-25

    • gemini:gemini-2.5-pro-exp-03-25

  • q или groq : Groq

    • q:llama-3.1-70b-versatile

    • groq:llama-3.1-70b-versatile

  • d или deepseek : DeepSeek

    • d:deepseek-coder

    • deepseek:deepseek-coder

  • l или ollama : Оллама

    • l:llama3.1

    • ollama:llama3.1

Функции

  • Унифицированный API для нескольких поставщиков LLM

  • Поддержка текстовых подсказок из строк или файлов

  • Запуск нескольких моделей параллельно

  • Автоматическая коррекция имени модели с использованием первой модели в списке --default-models

  • Возможность сохранения ответов в файлы

  • Удобный список доступных поставщиков и моделей

Установка

# Clone the repository
git clone https://github.com/yourusername/just-prompt.git
cd just-prompt

# Install with pip
uv sync

Переменные среды

Создайте файл .env с вашими ключами API (можно скопировать файл .env.sample ):

cp .env.sample .env

Затем отредактируйте файл .env , чтобы добавить ключи API (или экспортируйте их в оболочку):

OPENAI_API_KEY=your_openai_api_key_here
ANTHROPIC_API_KEY=your_anthropic_api_key_here
GEMINI_API_KEY=your_gemini_api_key_here
GROQ_API_KEY=your_groq_api_key_here
DEEPSEEK_API_KEY=your_deepseek_api_key_here
OLLAMA_HOST=http://localhost:11434

Установка кода Клода

Во всех этих примерах замените каталог на путь к каталогу just-prompt.

Модели по умолчанию установлены на openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 и gemini:gemini-2.5-flash-preview-04-17 .

Если вы используете Claude Code прямо из репозитория, вы можете увидеть в файле .mcp.json, что мы установили модели по умолчанию...

{
  "mcpServers": {
    "just-prompt": {
      "type": "stdio",
      "command": "uv",
      "args": [
        "--directory",
        ".",
        "run",
        "just-prompt",
        "--default-models",
        "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"
      ],
      "env": {}
    }
  }
}

Параметр --default-models задает модели для использования, когда ни одна из них явно не указана для конечных точек API. Первая модель в списке также используется для исправления имени модели при необходимости. Это может быть список моделей, разделенных запятыми.

При запуске сервера он автоматически проверит, какие ключи API доступны в вашей среде, и сообщит, каких поставщиков вы можете использовать. Если ключ отсутствует, поставщик будет указан как недоступный, но сервер все равно запустится и может использоваться с доступными поставщиками.

Использование mcp add-json

Скопируйте это и вставьте в код Клода, НО не запускайте, пока не скопируете json

claude mcp add just-prompt "$(pbpaste)"

JSON для копирования

{
    "command": "uv",
    "args": ["--directory", ".", "run", "just-prompt"]
}

С пользовательской моделью по умолчанию, установленной на openai:gpt-4o .

{
    "command": "uv",
    "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"]
}

С несколькими моделями по умолчанию:

{
    "command": "uv",
    "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"]
}

Использование mcp add с областью действия проекта

# With default models
claude mcp add just-prompt -s project \
  -- \
    uv --directory . \
    run just-prompt

# With custom default model
claude mcp add just-prompt -s project \
  -- \
  uv --directory . \
  run just-prompt --default-models "openai:gpt-4o"

# With multiple default models
claude mcp add just-prompt -s user \
  -- \
  uv --directory . \
  run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

claude mcp удалить просто-подсказка

Проведение тестов

uv run pytest

Структура кодовой базы

.
├── ai_docs/                   # Documentation for AI model details
│   ├── extending_thinking_sonny.md
│   ├── llm_providers_details.xml
│   ├── openai-reasoning-effort.md
│   └── pocket-pick-mcp-server-example.xml
├── example_outputs/           # Example outputs from different models
├── list_models.py             # Script to list available LLM models
├── prompts/                   # Example prompt files
├── pyproject.toml             # Python project configuration
├── specs/                     # Project specifications
│   ├── init-just-prompt.md
│   ├── new-tool-llm-as-a-ceo.md
│   └── oai-reasoning-levels.md
├── src/                       # Source code directory
│   └── just_prompt/
│       ├── __init__.py
│       ├── __main__.py
│       ├── atoms/             # Core components
│       │   ├── llm_providers/ # Individual provider implementations
│       │   │   ├── anthropic.py
│       │   │   ├── deepseek.py
│       │   │   ├── gemini.py
│       │   │   ├── groq.py
│       │   │   ├── ollama.py
│       │   │   └── openai.py
│       │   └── shared/        # Shared utilities and data types
│       │       ├── data_types.py
│       │       ├── model_router.py
│       │       ├── utils.py
│       │       └── validator.py
│       ├── molecules/         # Higher-level functionality
│       │   ├── ceo_and_board_prompt.py
│       │   ├── list_models.py
│       │   ├── list_providers.py
│       │   ├── prompt.py
│       │   ├── prompt_from_file.py
│       │   └── prompt_from_file_to_file.py
│       ├── server.py          # MCP server implementation
│       └── tests/             # Test directory
│           ├── atoms/         # Tests for atoms
│           │   ├── llm_providers/
│           │   └── shared/
│           └── molecules/     # Tests for molecules
│               ├── test_ceo_and_board_prompt.py
│               ├── test_list_models.py
│               ├── test_list_providers.py
│               ├── test_prompt.py
│               ├── test_prompt_from_file.py
│               └── test_prompt_from_file_to_file.py
└── ultra_diff_review/         # Diff review outputs

Контекстная подготовка

ПРОЧИТАЙТЕ README.md, pyproject.toml, затем запустите git ls-files и 'eza --git-ignore --tree', чтобы понять контекст проекта.

Обоснование усилий с OpenAI o‑Series

Для моделей рассуждений OpenAI серии o ( o4-mini , o3-mini , o3 ) вы можете контролировать объем внутренних рассуждений, выполняемых моделью перед выдачей видимого ответа.

Добавьте один из следующих суффиксов к названию модели (после префикса поставщика ):

  • :low – минимальные внутренние рассуждения (быстрее, дешевле)

  • :medium – сбалансированный (по умолчанию, если не указан)

  • :high – тщательное рассуждение (медленнее, больше токенов)

Примеры:

  • openai:o4-mini:low

  • o:o4-mini:high

При наличии суффикса reasoning just-prompt автоматически переключается на API OpenAI Responses (если он доступен) и устанавливает соответствующий параметр reasoning.effort . Если установленный OpenAI SDK более старый, он изящно возвращается к конечной точке Chat Completions и встраивает внутреннюю системную инструкцию для приблизительного соответствия запрошенному уровню усилий.

Думаем о жетонах с Клодом

Модель антропного Клода claude-3-7-sonnet-20250219 поддерживает расширенные мыслительные способности с использованием токенов мышления. Это позволяет Клоду проводить более тщательные мыслительные процессы перед ответом.

Вы можете включить токены мышления, добавив суффикс к имени модели в следующем формате:

  • anthropic:claude-3-7-sonnet-20250219:1k - Используйте 1024 жетона мышления

  • anthropic:claude-3-7-sonnet-20250219:4k - Используйте 4096 токенов мышления

  • anthropic:claude-3-7-sonnet-20250219:8000 - Используйте 8000 жетонов мышления

Примечания:

  • Маркеры мышления поддерживаются только для модели claude-3-7-sonnet-20250219

  • Допустимые бюджеты токенов мышления варьируются от 1024 до 16000.

  • Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.

  • Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)

Думаем о бюджете с Близнецами

Модель Google Gemini gemini-2.5-flash-preview-04-17 поддерживает расширенные возможности мышления с использованием бюджета мышления. Это позволяет Gemini выполнять более тщательное рассуждение перед предоставлением ответа.

Вы можете включить функцию «думающего бюджета», добавив суффикс к названию модели в следующем формате:

  • gemini:gemini-2.5-flash-preview-04-17:1k - Используйте бюджет мышления 1024

  • gemini:gemini-2.5-flash-preview-04-17:4k - Используйте 4096 бюджета мышления

  • gemini:gemini-2.5-flash-preview-04-17:8000 - Используйте бюджет мышления 8000

Примечания:

  • Бюджет Thinking поддерживается только для модели gemini-2.5-flash-preview-04-17

  • Допустимый диапазон бюджета мышления от 0 до 24576

  • Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.

  • Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)

Ресурсы

Мастер кодирования ИИ

Научитесь программировать с помощью ИИ, изучив основные принципы кодирования ИИ

Подпишитесь на канал IndyDevDan на YouTube, чтобы получить больше советов и рекомендаций по программированию ИИ.

Install Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

If you have feedback or need assistance with the MCP directory API, please join our Discord server