Just Prompt

Integrations

  • Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.

  • Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.

  • Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.

Just Prompt - LLM 제공자를 위한 가벼운 MCP 서버

just-prompt OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama를 포함한 다양한 대규모 언어 모델(LLM) 공급자에 통합 인터페이스를 제공하는 모델 제어 프로토콜(MCP) 서버입니다.

도구

서버에서 사용할 수 있는 MCP 도구는 다음과 같습니다.

  • prompt : 여러 LLM 모델에 프롬프트를 보냅니다.
    • 매개변수:
      • text : 프롬프트 텍스트
      • models_prefixed_by_provider (선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
  • prompt_from_file : 파일에서 여러 LLM 모델로 프롬프트를 보냅니다.
    • 매개변수:
      • file : 프롬프트가 포함된 파일의 경로
      • models_prefixed_by_provider (선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
  • prompt_from_file_to_file : 파일에서 여러 LLM 모델로 프롬프트를 보내고 응답을 마크다운 파일로 저장합니다.
    • 매개변수:
      • file : 프롬프트가 포함된 파일의 경로
      • models_prefixed_by_provider (선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
      • output_dir (기본값: "."): 응답 마크다운 파일을 저장할 디렉토리
  • list_providers : 사용 가능한 모든 LLM 공급자 나열
    • 매개변수: 없음
  • list_models : 특정 LLM 공급자에 사용 가능한 모든 모델을 나열합니다.
    • 매개변수:
      • provider : 모델을 나열하는 제공자(예: 'openai' 또는 'o')

공급자 접두사

모든 모델에는 공급자 이름이 접두사로 붙어야 합니다.

더 빠른 참조를 위해 짧은 이름을 사용하세요

  • o 또는 openai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a 또는 anthropic : 인류학적
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • g 또는 gemini : Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini:gemini-2.5-pro-exp-03-25
  • q 또는 groq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • d 또는 deepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • l 또는 ollama : 올라마
    • l:llama3.1
    • ollama:llama3.1

특징

  • 여러 LLM 공급자를 위한 통합 API
  • 문자열이나 파일에서 텍스트 프롬프트 지원
  • 여러 모델을 병렬로 실행
  • --default-models 목록의 첫 번째 모델을 사용하여 자동 모델 이름 수정
  • 파일에 대한 응답을 저장하는 기능
  • 사용 가능한 공급자 및 모델을 쉽게 나열

설치

지엑스피1

환경 변수

API 키로 .env 파일을 만듭니다( .env.sample 파일을 복사할 수 있습니다).

cp .env.sample .env

그런 다음 .env 파일을 편집하여 API 키를 추가하거나 셸에서 내보냅니다.

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

클로드 코드 설치

기본 모델이 anthropic:claude-3-7-sonnet-20250219 로 설정되었습니다.

저장소에서 바로 Claude Code를 사용하면 .mcp.json 파일에서 기본 모델을 다음과 같이 설정한 것을 볼 수 있습니다.

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:o3-mini,gemini:gemini-2.5-pro-exp-03-25" ], "env": {} } } }

--default-models 매개변수는 API 엔드포인트에 명시적으로 제공된 모델이 없을 때 사용할 모델을 설정합니다. 목록의 첫 번째 모델은 필요 시 모델 이름 수정에도 사용됩니다. 쉼표로 구분된 모델 목록일 수 있습니다.

서버를 시작하면 사용자 환경에서 사용 가능한 API 키를 자동으로 확인하고 사용 가능한 공급자를 알려줍니다. 키가 없는 경우 공급자는 사용할 수 없음으로 표시되지만, 서버는 계속 시작되고 사용 가능한 공급자를 통해 사용할 수 있습니다.

mcp add-json 사용

이것을 복사하여 Claude 코드에 붙여 넣으세요. 하지만 JSON을 복사할 때까지 실행하지 마세요.

claude mcp add just-prompt "$(pbpaste)"

복사할 JSON

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

사용자 정의 기본 모델을 openai:gpt-4o 로 설정합니다.

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

여러 기본 모델 사용:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:gpt-4o,gemini:gemini-2.5-pro-exp-03-25"] }

프로젝트 범위에 mcp add 사용

# With default model (anthropic:claude-3-7-sonnet-20250219) claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "anthropic:claude-3-7-sonnet-20250219:4k,openai:o3-mini,gemini:gemini-2.0-flash,openai:gpt-4.5-preview,gemini:gemini-2.5-pro-exp-03-25"

mcp remove

클로드 MCP Just-Prompt 제거

테스트 실행

uv run pytest

코드베이스 구조

. ├── ai_docs/ # Documentation for AI model details │ ├── llm_providers_details.xml │ └── pocket-pick-mcp-server-example.xml ├── list_models.py # Script to list available LLM models ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ └── init-just-prompt.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules

맥락 프라이밍

README.md를 읽은 다음 git ls-files와 'eza --git-ignore --tree'를 실행하여 프로젝트의 컨텍스트를 이해하세요.

클로드와 함께 생각하는 토큰

인간 중심적 클로드 모델 claude-3-7-sonnet-20250219 은 사고 토큰을 사용하여 확장된 사고 능력을 지원합니다. 이를 통해 클로드는 답변하기 전에 더욱 심도 있는 사고 과정을 수행할 수 있습니다.

다음 형식으로 모델 이름에 접미사를 추가하여 사고 토큰을 활성화할 수 있습니다.

  • anthropic:claude-3-7-sonnet-20250219:1k - 생각 토큰 1024개를 사용하세요
  • anthropic:claude-3-7-sonnet-20250219:4k - 4096개의 사고 토큰을 사용하세요
  • anthropic:claude-3-7-sonnet-20250219:8000 - 생각 토큰 8000개 사용

사용 예:

# Using 4k thinking tokens with Claude uv run just-prompt prompt "Analyze the advantages and disadvantages of quantum computing vs classical computing" \ --models-prefixed-by-provider anthropic:claude-3-7-sonnet-20250219:4k

참고사항:

  • 사고 토큰은 claude-3-7-sonnet-20250219 모델에서만 지원됩니다.
  • 유효한 사고 토큰 예산은 1024에서 16000까지입니다.
  • 이 범위를 벗어난 값은 자동으로 범위 내로 조정됩니다.
  • 예산은 k 표기법(1k, 4k 등)이나 정확한 숫자(1024, 4096 등)로 지정할 수 있습니다.

자원

-
security - not tested
F
license - not found
-
quality - not tested

OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama를 포함한 다양한 LLM 공급자에게 통합 인터페이스를 제공하는 가벼운 MCP 서버입니다.

  1. Tools
    1. Provider Prefixes
      1. Features
        1. Installation
          1. Environment Variables
        2. Claude Code Installation
          1. Using mcp add-json
          2. Using mcp add with project scope
        3. mcp remove
          1. Running Tests
            1. Codebase Structure
              1. Context Priming
                1. Thinking Tokens with Claude
                  1. Resources
                    ID: rpr6b7nr51