Skip to main content
Glama

Just Prompt

by disler

Just Prompt — легкий сервер MCP для поставщиков LLM

just-prompt — это сервер Model Control Protocol (MCP), который предоставляет унифицированный интерфейс для различных поставщиков Large Language Model (LLM), включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama. Посмотрите, как мы используем инструмент ceo_and_board , чтобы упростить принятие сложных решений с помощью o3, здесь .

Инструменты

На сервере доступны следующие инструменты MCP:

  • prompt : Отправить запрос нескольким моделям LLM
    • Параметры:
      • text : Текст подсказки
      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
  • prompt_from_file : отправка подсказки из файла нескольким моделям LLM
    • Параметры:
      • file : Путь к файлу, содержащему подсказку
      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
  • prompt_from_file_to_file : отправка запроса из файла в несколько моделей LLM и сохранение ответов в виде файлов разметки
    • Параметры:
      • file : Путь к файлу, содержащему подсказку
      • models_prefixed_by_provider (необязательно): Список моделей с префиксами провайдера. Если не указано, используются модели по умолчанию.
      • output_dir (по умолчанию: "."): Каталог для сохранения файлов разметки ответов
  • ceo_and_board : отправка запроса нескольким моделям «член совета директоров» и принятие решения моделью «генеральный директор» на основе их ответов.
    • Параметры:
      • file : Путь к файлу, содержащему подсказку
      • models_prefixed_by_provider (необязательно): Список моделей с префиксами поставщиков для работы в качестве членов совета. Если не указано, используются модели по умолчанию.
      • output_dir (по умолчанию: "."): Каталог для сохранения файлов ответов и решений генерального директора
      • ceo_model (по умолчанию: «openai:o3»): модель, используемая для принятия решения генеральным директором в формате «поставщик:модель»
  • list_providers : Список всех доступных поставщиков LLM
    • Параметры: Нет
  • list_models : список всех доступных моделей для определенного поставщика LLM
    • Параметры:
      • provider : поставщик для перечисления моделей (например, «openai» или «o»)

Префиксы провайдера

Каждая модель должна иметь префикс в виде имени поставщика.

используйте короткое имя для более быстрой ссылки

  • o или openai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a или anthropic : антропный
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • g или gemini : Google Близнецы
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini-2.5-pro-exp-03-25
  • q или groq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • d или deepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • l или ollama : Оллама
    • l:llama3.1
    • ollama:llama3.1

Функции

  • Унифицированный API для нескольких поставщиков LLM
  • Поддержка текстовых подсказок из строк или файлов
  • Запуск нескольких моделей параллельно
  • Автоматическая коррекция имени модели с использованием первой модели в списке --default-models
  • Возможность сохранения ответов в файлы
  • Удобный список доступных поставщиков и моделей

Установка

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

Переменные среды

Создайте файл .env с вашими ключами API (можно скопировать файл .env.sample ):

cp .env.sample .env

Затем отредактируйте файл .env , чтобы добавить ключи API (или экспортируйте их в оболочку):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

Установка кода Клода

Во всех этих примерах замените каталог на путь к каталогу just-prompt.

Модели по умолчанию установлены на openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 и gemini:gemini-2.5-flash-preview-04-17 .

Если вы используете Claude Code прямо из репозитория, вы можете увидеть в файле .mcp.json, что мы установили модели по умолчанию...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17" ], "env": {} } } }

Параметр --default-models задает модели для использования, когда ни одна из них явно не указана для конечных точек API. Первая модель в списке также используется для исправления имени модели при необходимости. Это может быть список моделей, разделенных запятыми.

При запуске сервера он автоматически проверит, какие ключи API доступны в вашей среде, и сообщит, каких поставщиков вы можете использовать. Если ключ отсутствует, поставщик будет указан как недоступный, но сервер все равно запустится и может использоваться с доступными поставщиками.

Использование mcp add-json

Скопируйте это и вставьте в код Клода, НО не запускайте, пока не скопируете json

claude mcp add just-prompt "$(pbpaste)"

JSON для копирования

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

С пользовательской моделью по умолчанию, установленной на openai:gpt-4o .

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

С несколькими моделями по умолчанию:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"] }

Использование mcp add с областью действия проекта

# With default models claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

claude mcp удалить просто-подсказка

Проведение тестов

uv run pytest

Структура кодовой базы

. ├── ai_docs/ # Documentation for AI model details │ ├── extending_thinking_sonny.md │ ├── llm_providers_details.xml │ ├── openai-reasoning-effort.md │ └── pocket-pick-mcp-server-example.xml ├── example_outputs/ # Example outputs from different models ├── list_models.py # Script to list available LLM models ├── prompts/ # Example prompt files ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ ├── init-just-prompt.md │ ├── new-tool-llm-as-a-ceo.md │ └── oai-reasoning-levels.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── ceo_and_board_prompt.py │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules │ ├── test_ceo_and_board_prompt.py │ ├── test_list_models.py │ ├── test_list_providers.py │ ├── test_prompt.py │ ├── test_prompt_from_file.py │ └── test_prompt_from_file_to_file.py └── ultra_diff_review/ # Diff review outputs

Контекстная подготовка

ПРОЧИТАЙТЕ README.md, pyproject.toml, затем запустите git ls-files и 'eza --git-ignore --tree', чтобы понять контекст проекта.

Обоснование усилий с OpenAI o‑Series

Для моделей рассуждений OpenAI серии o ( o4-mini , o3-mini , o3 ) вы можете контролировать объем внутренних рассуждений, выполняемых моделью перед выдачей видимого ответа.

Добавьте один из следующих суффиксов к названию модели (после префикса поставщика ):

  • :low – минимальные внутренние рассуждения (быстрее, дешевле)
  • :medium – сбалансированный (по умолчанию, если не указан)
  • :high – тщательное рассуждение (медленнее, больше токенов)

Примеры:

  • openai:o4-mini:low
  • o:o4-mini:high

При наличии суффикса reasoning just-prompt автоматически переключается на API OpenAI Responses (если он доступен) и устанавливает соответствующий параметр reasoning.effort . Если установленный OpenAI SDK более старый, он изящно возвращается к конечной точке Chat Completions и встраивает внутреннюю системную инструкцию для приблизительного соответствия запрошенному уровню усилий.

Думаем о жетонах с Клодом

Модель антропного Клода claude-3-7-sonnet-20250219 поддерживает расширенные мыслительные способности с использованием токенов мышления. Это позволяет Клоду проводить более тщательные мыслительные процессы перед ответом.

Вы можете включить токены мышления, добавив суффикс к имени модели в следующем формате:

  • anthropic:claude-3-7-sonnet-20250219:1k - Используйте 1024 жетона мышления
  • anthropic:claude-3-7-sonnet-20250219:4k - Используйте 4096 токенов мышления
  • anthropic:claude-3-7-sonnet-20250219:8000 - Используйте 8000 жетонов мышления

Примечания:

  • Маркеры мышления поддерживаются только для модели claude-3-7-sonnet-20250219
  • Допустимые бюджеты токенов мышления варьируются от 1024 до 16000.
  • Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
  • Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)

Думаем о бюджете с Близнецами

Модель Google Gemini gemini-2.5-flash-preview-04-17 поддерживает расширенные возможности мышления с использованием бюджета мышления. Это позволяет Gemini выполнять более тщательное рассуждение перед предоставлением ответа.

Вы можете включить функцию «думающего бюджета», добавив суффикс к названию модели в следующем формате:

  • gemini:gemini-2.5-flash-preview-04-17:1k - Используйте бюджет мышления 1024
  • gemini:gemini-2.5-flash-preview-04-17:4k - Используйте 4096 бюджета мышления
  • gemini:gemini-2.5-flash-preview-04-17:8000 - Используйте бюджет мышления 8000

Примечания:

  • Бюджет Thinking поддерживается только для модели gemini-2.5-flash-preview-04-17
  • Допустимый диапазон бюджета мышления от 0 до 24576
  • Значения, выходящие за пределы этого диапазона, будут автоматически скорректированы так, чтобы соответствовать диапазону.
  • Вы можете указать бюджет с помощью k-нотации (1k, 4k и т. д.) или с помощью точных чисел (1024, 4096 и т. д.)

Ресурсы

Мастер кодирования ИИ

Научитесь программировать с помощью ИИ, изучив основные принципы кодирования ИИ

Подпишитесь на канал IndyDevDan на YouTube, чтобы получить больше советов и рекомендаций по программированию ИИ.

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Легкий сервер MCP, предоставляющий унифицированный интерфейс для различных поставщиков LLM, включая OpenAI, Anthropic, Google Gemini, Groq, DeepSeek и Ollama.

  1. Инструменты
    1. Префиксы провайдера
      1. Функции
        1. Установка
          1. Переменные среды
        2. Установка кода Клода
          1. Использование mcp add-json
          2. Использование mcp add с областью действия проекта
        3. mcp remove
          1. Проведение тестов
            1. Структура кодовой базы
              1. Контекстная подготовка
                1. Обоснование усилий с OpenAI o‑Series
                  1. Думаем о жетонах с Клодом
                    1. Думаем о бюджете с Близнецами
                      1. Ресурсы
                      2. Мастер кодирования ИИ

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                      Last updated -
                      1
                      Python
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that provides LLMs access to other LLMs
                      Last updated -
                      4
                      14
                      12
                      JavaScript
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
                      Last updated -
                      4
                      4
                      1
                      TypeScript
                      MIT License
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.
                      Last updated -
                      94
                      TypeScript
                      MIT License
                      • Linux
                      • Apple

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server