Skip to main content
Glama

Just Prompt

by disler

Just Prompt - LLM 제공자를 위한 가벼운 MCP 서버

just-prompt OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama 등 다양한 대규모 언어 모델(LLM) 제공업체에 통합 인터페이스를 제공하는 모델 제어 프로토콜(MCP) 서버입니다. ceo_and_board 도구를 사용하여 o3에서 어려운 의사 결정을 쉽게 내리는 방법을 여기에서 확인하세요.

도구

서버에서 사용할 수 있는 MCP 도구는 다음과 같습니다.

  • prompt : 여러 LLM 모델에 프롬프트를 보냅니다.
    • 매개변수:
      • text : 프롬프트 텍스트
      • models_prefixed_by_provider (선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
  • prompt_from_file : 파일에서 여러 LLM 모델로 프롬프트를 보냅니다.
    • 매개변수:
      • file : 프롬프트가 포함된 파일의 경로
      • models_prefixed_by_provider (선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
  • prompt_from_file_to_file : 파일에서 여러 LLM 모델로 프롬프트를 보내고 응답을 마크다운 파일로 저장합니다.
    • 매개변수:
      • file : 프롬프트가 포함된 파일의 경로
      • models_prefixed_by_provider (선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
      • output_dir (기본값: "."): 응답 마크다운 파일을 저장할 디렉토리
  • ceo_and_board : 여러 '이사회 구성원' 모델에 메시지를 보내고 'CEO' 모델이 응답에 따라 결정을 내리도록 합니다.
    • 매개변수:
      • file : 프롬프트가 포함된 파일의 경로
      • models_prefixed_by_provider (선택 사항): 보드 멤버 역할을 할 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
      • output_dir (기본값: "."): 응답 파일과 CEO 결정을 저장할 디렉토리
      • ceo_model (기본값: "openai:o3"): "provider:model" 형식의 CEO 결정에 사용할 모델
  • list_providers : 사용 가능한 모든 LLM 공급자 나열
    • 매개변수: 없음
  • list_models : 특정 LLM 공급자에 사용 가능한 모든 모델을 나열합니다.
    • 매개변수:
      • provider : 모델을 나열하는 제공자(예: 'openai' 또는 'o')

공급자 접두사

모든 모델에는 공급자 이름이 접두사로 붙어야 합니다.

더 빠른 참조를 위해 짧은 이름을 사용하세요

  • o 또는 openai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a 또는 anthropic : 인류학적
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • g 또는 gemini : Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini-2.5-pro-exp-03-25
  • q 또는 groq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • d 또는 deepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • l 또는 ollama : 올라마
    • l:llama3.1
    • ollama:llama3.1

특징

  • 여러 LLM 공급자를 위한 통합 API
  • 문자열이나 파일에서 텍스트 프롬프트 지원
  • 여러 모델을 병렬로 실행
  • --default-models 목록의 첫 번째 모델을 사용하여 자동 모델 이름 수정
  • 파일에 대한 응답을 저장하는 기능
  • 사용 가능한 공급자 및 모델을 쉽게 나열

설치

지엑스피1

환경 변수

API 키로 .env 파일을 만듭니다( .env.sample 파일을 복사할 수 있습니다).

cp .env.sample .env

그런 다음 .env 파일을 편집하여 API 키를 추가하거나 셸에서 내보냅니다.

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

클로드 코드 설치

이 모든 예에서 디렉토리를 방금 실행한 디렉토리 경로로 바꾸세요.

기본 모델은 openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 , gemini:gemini-2.5-flash-preview-04-17 설정되었습니다.

저장소에서 바로 Claude Code를 사용하면 .mcp.json 파일에서 기본 모델을 다음과 같이 설정한 것을 볼 수 있습니다.

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17" ], "env": {} } } }

--default-models 매개변수는 API 엔드포인트에 명시적으로 제공된 모델이 없을 때 사용할 모델을 설정합니다. 목록의 첫 번째 모델은 필요 시 모델 이름 수정에도 사용됩니다. 쉼표로 구분된 모델 목록일 수 있습니다.

서버를 시작하면 사용자 환경에서 사용 가능한 API 키를 자동으로 확인하고 사용 가능한 공급자를 알려줍니다. 키가 없는 경우 공급자는 사용할 수 없음으로 표시되지만, 서버는 계속 시작되고 사용 가능한 공급자를 통해 사용할 수 있습니다.

mcp add-json 사용

이것을 복사하여 Claude 코드에 붙여 넣으세요. 하지만 JSON을 복사할 때까지 실행하지 마세요.

claude mcp add just-prompt "$(pbpaste)"

복사할 JSON

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

사용자 정의 기본 모델을 openai:gpt-4o 로 설정합니다.

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

여러 기본 모델 사용:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"] }

프로젝트 범위에 mcp add 사용

# With default models claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

클로드 MCP가 Just-Prompt를 제거합니다.

테스트 실행

uv run pytest

코드베이스 구조

. ├── ai_docs/ # Documentation for AI model details │ ├── extending_thinking_sonny.md │ ├── llm_providers_details.xml │ ├── openai-reasoning-effort.md │ └── pocket-pick-mcp-server-example.xml ├── example_outputs/ # Example outputs from different models ├── list_models.py # Script to list available LLM models ├── prompts/ # Example prompt files ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ ├── init-just-prompt.md │ ├── new-tool-llm-as-a-ceo.md │ └── oai-reasoning-levels.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── ceo_and_board_prompt.py │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules │ ├── test_ceo_and_board_prompt.py │ ├── test_list_models.py │ ├── test_list_providers.py │ ├── test_prompt.py │ ├── test_prompt_from_file.py │ └── test_prompt_from_file_to_file.py └── ultra_diff_review/ # Diff review outputs

맥락 프라이밍

README.md, pyproject.toml을 읽은 다음 git ls-files와 'eza --git-ignore --tree'를 실행하여 프로젝트의 컨텍스트를 이해하세요.

OpenAI o‑Series를 사용한 추론 노력

OpenAI o‑series 추론 모델( o4-mini , o3-mini , o3 )의 경우, 모델이 눈에 보이는 답변을 생성하기 전에 얼마나 많은 내부 추론을 수행할지 제어할 수 있습니다.

모델 이름( 공급자 접두사 뒤)에 다음 접미사 중 하나를 추가합니다.

  • :low – 최소한의 내부 추론(더 빠르고 저렴함)
  • :medium – 균형(생략 시 기본값)
  • :high – 철저한 추론(느리고 토큰이 더 많음)

예:

  • openai:o4-mini:low
  • o:o4-mini:high

추론 접미사가 있는 경우 just‑prompt는 자동으로 OpenAI Responses API(사용 가능한 경우)로 전환하고 해당 reasoning.effort 매개변수를 설정합니다. 설치된 OpenAI SDK가 이전 버전인 경우, Chat Completions 엔드포인트로 자연스럽게 폴백하고 요청된 노력 수준을 추정하는 내부 시스템 지침을 포함합니다.

클로드와 함께 생각하는 토큰

인간 중심적 클로드 모델 claude-3-7-sonnet-20250219 은 사고 토큰을 사용하여 확장된 사고 능력을 지원합니다. 이를 통해 클로드는 답변하기 전에 더욱 심도 있는 사고 과정을 수행할 수 있습니다.

다음 형식으로 모델 이름에 접미사를 추가하여 사고 토큰을 활성화할 수 있습니다.

  • anthropic:claude-3-7-sonnet-20250219:1k - 1024개의 생각 토큰을 사용하세요
  • anthropic:claude-3-7-sonnet-20250219:4k - 4096개의 사고 토큰을 사용하세요
  • anthropic:claude-3-7-sonnet-20250219:8000 - 생각 토큰 8000개 사용

참고사항:

  • 사고 토큰은 claude-3-7-sonnet-20250219 모델에서만 지원됩니다.
  • 유효한 사고 토큰 예산은 1024에서 16000까지입니다.
  • 이 범위를 벗어난 값은 자동으로 범위 내로 조정됩니다.
  • 예산은 k 표기법(1k, 4k 등)이나 정확한 숫자(1024, 4096 등)로 지정할 수 있습니다.

쌍둥이자리와 함께 예산 생각하기

Google Gemini 모델 gemini-2.5-flash-preview-04-17 사고 예산을 활용하여 확장된 사고 기능을 지원합니다. 이를 통해 Gemini는 응답을 제공하기 전에 더욱 심도 있는 추론을 수행할 수 있습니다.

모델 이름에 접미사를 추가하여 생각 예산을 활성화할 수 있습니다. 형식은 다음과 같습니다.

  • gemini:gemini-2.5-flash-preview-04-17:1k - 1024 생각 예산 사용
  • gemini:gemini-2.5-flash-preview-04-17:4k - 4096 생각 예산 사용
  • gemini:gemini-2.5-flash-preview-04-17:8000 - 8000 생각 예산 사용

참고사항:

  • Thinking budget은 gemini-2.5-flash-preview-04-17 모델에서만 지원됩니다.
  • 유효한 사고 예산 범위는 0~24576입니다.
  • 이 범위를 벗어난 값은 자동으로 범위 내로 조정됩니다.
  • 예산은 k 표기법(1k, 4k 등)이나 정확한 숫자(1024, 4096 등)로 지정할 수 있습니다.

자원

AI 코딩 마스터하기

AI 코딩의 기본 원칙을 통해 AI로 코딩하는 법을 배우세요

더 많은 AI 코딩 팁과 요령을 알아보려면 IndyDevDan YouTube 채널을 팔로우하세요.

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama를 포함한 다양한 LLM 공급자에게 통합 인터페이스를 제공하는 가벼운 MCP 서버입니다.

  1. 도구
    1. 공급자 접두사
      1. 특징
        1. 설치
          1. 환경 변수
        2. 클로드 코드 설치
          1. mcp add-json 사용
          2. 프로젝트 범위에 mcp add 사용
        3. mcp remove
          1. 테스트 실행
            1. 코드베이스 구조
              1. 맥락 프라이밍
                1. OpenAI o‑Series를 사용한 추론 노력
                  1. 클로드와 함께 생각하는 토큰
                    1. 쌍둥이자리와 함께 예산 생각하기
                      1. 자원
                      2. AI 코딩 마스터하기

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                      Last updated -
                      1
                      Python
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that provides LLMs access to other LLMs
                      Last updated -
                      4
                      14
                      12
                      JavaScript
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
                      Last updated -
                      4
                      4
                      1
                      TypeScript
                      MIT License
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.
                      Last updated -
                      94
                      TypeScript
                      MIT License
                      • Linux
                      • Apple

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server