Just Prompt - LLM 제공자를 위한 가벼운 MCP 서버
just-prompt
OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama 등 다양한 대규모 언어 모델(LLM) 제공업체에 통합 인터페이스를 제공하는 모델 제어 프로토콜(MCP) 서버입니다. ceo_and_board
도구를 사용하여 o3에서 어려운 의사 결정을 쉽게 내리는 방법을 여기에서 확인하세요.
도구
서버에서 사용할 수 있는 MCP 도구는 다음과 같습니다.
prompt
: 여러 LLM 모델에 프롬프트를 보냅니다.- 매개변수:
text
: 프롬프트 텍스트models_prefixed_by_provider
(선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
- 매개변수:
prompt_from_file
: 파일에서 여러 LLM 모델로 프롬프트를 보냅니다.- 매개변수:
file
: 프롬프트가 포함된 파일의 경로models_prefixed_by_provider
(선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
- 매개변수:
prompt_from_file_to_file
: 파일에서 여러 LLM 모델로 프롬프트를 보내고 응답을 마크다운 파일로 저장합니다.- 매개변수:
file
: 프롬프트가 포함된 파일의 경로models_prefixed_by_provider
(선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.output_dir
(기본값: "."): 응답 마크다운 파일을 저장할 디렉토리
- 매개변수:
ceo_and_board
: 여러 '이사회 구성원' 모델에 메시지를 보내고 'CEO' 모델이 응답에 따라 결정을 내리도록 합니다.- 매개변수:
file
: 프롬프트가 포함된 파일의 경로models_prefixed_by_provider
(선택 사항): 보드 멤버 역할을 할 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.output_dir
(기본값: "."): 응답 파일과 CEO 결정을 저장할 디렉토리ceo_model
(기본값: "openai:o3"): "provider:model" 형식의 CEO 결정에 사용할 모델
- 매개변수:
list_providers
: 사용 가능한 모든 LLM 공급자 나열- 매개변수: 없음
list_models
: 특정 LLM 공급자에 사용 가능한 모든 모델을 나열합니다.- 매개변수:
provider
: 모델을 나열하는 제공자(예: 'openai' 또는 'o')
- 매개변수:
공급자 접두사
모든 모델에는 공급자 이름이 접두사로 붙어야 합니다.
더 빠른 참조를 위해 짧은 이름을 사용하세요
o
또는openai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
또는anthropic
: 인류학적a:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
또는gemini
: Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini-2.5-pro-exp-03-25
q
또는groq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
또는deepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
또는ollama
: 올라마l:llama3.1
ollama:llama3.1
특징
- 여러 LLM 공급자를 위한 통합 API
- 문자열이나 파일에서 텍스트 프롬프트 지원
- 여러 모델을 병렬로 실행
--default-models
목록의 첫 번째 모델을 사용하여 자동 모델 이름 수정- 파일에 대한 응답을 저장하는 기능
- 사용 가능한 공급자 및 모델을 쉽게 나열
설치
지엑스피1
환경 변수
API 키로 .env
파일을 만듭니다( .env.sample
파일을 복사할 수 있습니다).
그런 다음 .env
파일을 편집하여 API 키를 추가하거나 셸에서 내보냅니다.
클로드 코드 설치
이 모든 예에서 디렉토리를 방금 실행한 디렉토리 경로로 바꾸세요.
기본 모델은 openai:o3:high
, openai:o4-mini:high
, anthropic:claude-3-7-sonnet-20250219:4k
, gemini:gemini-2.5-pro-preview-03-25
, gemini:gemini-2.5-flash-preview-04-17
설정되었습니다.
저장소에서 바로 Claude Code를 사용하면 .mcp.json 파일에서 기본 모델을 다음과 같이 설정한 것을 볼 수 있습니다.
--default-models
매개변수는 API 엔드포인트에 명시적으로 제공된 모델이 없을 때 사용할 모델을 설정합니다. 목록의 첫 번째 모델은 필요 시 모델 이름 수정에도 사용됩니다. 쉼표로 구분된 모델 목록일 수 있습니다.
서버를 시작하면 사용자 환경에서 사용 가능한 API 키를 자동으로 확인하고 사용 가능한 공급자를 알려줍니다. 키가 없는 경우 공급자는 사용할 수 없음으로 표시되지만, 서버는 계속 시작되고 사용 가능한 공급자를 통해 사용할 수 있습니다.
mcp add-json
사용
이것을 복사하여 Claude 코드에 붙여 넣으세요. 하지만 JSON을 복사할 때까지 실행하지 마세요.
복사할 JSON
사용자 정의 기본 모델을 openai:gpt-4o
로 설정합니다.
여러 기본 모델 사용:
프로젝트 범위에 mcp add
사용
mcp remove
클로드 MCP가 Just-Prompt를 제거합니다.
테스트 실행
코드베이스 구조
맥락 프라이밍
README.md, pyproject.toml을 읽은 다음 git ls-files와 'eza --git-ignore --tree'를 실행하여 프로젝트의 컨텍스트를 이해하세요.
OpenAI o‑Series를 사용한 추론 노력
OpenAI o‑series 추론 모델( o4-mini
, o3-mini
, o3
)의 경우, 모델이 눈에 보이는 답변을 생성하기 전에 얼마나 많은 내부 추론을 수행할지 제어할 수 있습니다.
모델 이름( 공급자 접두사 뒤)에 다음 접미사 중 하나를 추가합니다.
:low
– 최소한의 내부 추론(더 빠르고 저렴함):medium
– 균형(생략 시 기본값):high
– 철저한 추론(느리고 토큰이 더 많음)
예:
openai:o4-mini:low
o:o4-mini:high
추론 접미사가 있는 경우 just‑prompt는 자동으로 OpenAI Responses API(사용 가능한 경우)로 전환하고 해당 reasoning.effort
매개변수를 설정합니다. 설치된 OpenAI SDK가 이전 버전인 경우, Chat Completions 엔드포인트로 자연스럽게 폴백하고 요청된 노력 수준을 추정하는 내부 시스템 지침을 포함합니다.
클로드와 함께 생각하는 토큰
인간 중심적 클로드 모델 claude-3-7-sonnet-20250219
은 사고 토큰을 사용하여 확장된 사고 능력을 지원합니다. 이를 통해 클로드는 답변하기 전에 더욱 심도 있는 사고 과정을 수행할 수 있습니다.
다음 형식으로 모델 이름에 접미사를 추가하여 사고 토큰을 활성화할 수 있습니다.
anthropic:claude-3-7-sonnet-20250219:1k
- 1024개의 생각 토큰을 사용하세요anthropic:claude-3-7-sonnet-20250219:4k
- 4096개의 사고 토큰을 사용하세요anthropic:claude-3-7-sonnet-20250219:8000
- 생각 토큰 8000개 사용
참고사항:
- 사고 토큰은
claude-3-7-sonnet-20250219
모델에서만 지원됩니다. - 유효한 사고 토큰 예산은 1024에서 16000까지입니다.
- 이 범위를 벗어난 값은 자동으로 범위 내로 조정됩니다.
- 예산은 k 표기법(1k, 4k 등)이나 정확한 숫자(1024, 4096 등)로 지정할 수 있습니다.
쌍둥이자리와 함께 예산 생각하기
Google Gemini 모델 gemini-2.5-flash-preview-04-17
사고 예산을 활용하여 확장된 사고 기능을 지원합니다. 이를 통해 Gemini는 응답을 제공하기 전에 더욱 심도 있는 추론을 수행할 수 있습니다.
모델 이름에 접미사를 추가하여 생각 예산을 활성화할 수 있습니다. 형식은 다음과 같습니다.
gemini:gemini-2.5-flash-preview-04-17:1k
- 1024 생각 예산 사용gemini:gemini-2.5-flash-preview-04-17:4k
- 4096 생각 예산 사용gemini:gemini-2.5-flash-preview-04-17:8000
- 8000 생각 예산 사용
참고사항:
- Thinking budget은
gemini-2.5-flash-preview-04-17
모델에서만 지원됩니다. - 유효한 사고 예산 범위는 0~24576입니다.
- 이 범위를 벗어난 값은 자동으로 범위 내로 조정됩니다.
- 예산은 k 표기법(1k, 4k 등)이나 정확한 숫자(1024, 4096 등)로 지정할 수 있습니다.
자원
- https://docs.anthropic.com/en/api/models-list?q=list+models
- https://github.com/googleapis/python-genai
- https://platform.openai.com/docs/api-reference/models/list
- https://api-docs.deepseek.com/api/list-models
- https://github.com/ollama/ollama-python
- https://github.com/openai/openai-python
AI 코딩 마스터하기
AI 코딩의 기본 원칙을 통해 AI로 코딩하는 법을 배우세요
더 많은 AI 코딩 팁과 요령을 알아보려면 IndyDevDan YouTube 채널을 팔로우하세요.
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama를 포함한 다양한 LLM 공급자에게 통합 인터페이스를 제공하는 가벼운 MCP 서버입니다.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated -41412JavaScriptMIT License
- AsecurityAlicenseAqualityAn MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.Last updated -441TypeScriptMIT License
- -securityAlicense-qualityA lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.Last updated -94TypeScriptMIT License