Integrations
Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.
Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.
Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.
Just Prompt - LLM 제공자를 위한 가벼운 MCP 서버
just-prompt
OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama를 포함한 다양한 대규모 언어 모델(LLM) 공급자에 통합 인터페이스를 제공하는 모델 제어 프로토콜(MCP) 서버입니다.
도구
서버에서 사용할 수 있는 MCP 도구는 다음과 같습니다.
prompt
: 여러 LLM 모델에 프롬프트를 보냅니다.- 매개변수:
text
: 프롬프트 텍스트models_prefixed_by_provider
(선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
- 매개변수:
prompt_from_file
: 파일에서 여러 LLM 모델로 프롬프트를 보냅니다.- 매개변수:
file
: 프롬프트가 포함된 파일의 경로models_prefixed_by_provider
(선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.
- 매개변수:
prompt_from_file_to_file
: 파일에서 여러 LLM 모델로 프롬프트를 보내고 응답을 마크다운 파일로 저장합니다.- 매개변수:
file
: 프롬프트가 포함된 파일의 경로models_prefixed_by_provider
(선택 사항): 공급자 접두사가 있는 모델 목록입니다. 지정하지 않으면 기본 모델을 사용합니다.output_dir
(기본값: "."): 응답 마크다운 파일을 저장할 디렉토리
- 매개변수:
list_providers
: 사용 가능한 모든 LLM 공급자 나열- 매개변수: 없음
list_models
: 특정 LLM 공급자에 사용 가능한 모든 모델을 나열합니다.- 매개변수:
provider
: 모델을 나열하는 제공자(예: 'openai' 또는 'o')
- 매개변수:
공급자 접두사
모든 모델에는 공급자 이름이 접두사로 붙어야 합니다.
더 빠른 참조를 위해 짧은 이름을 사용하세요
o
또는openai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
또는anthropic
: 인류학적a:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
또는gemini
: Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini:gemini-2.5-pro-exp-03-25
q
또는groq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
또는deepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
또는ollama
: 올라마l:llama3.1
ollama:llama3.1
특징
- 여러 LLM 공급자를 위한 통합 API
- 문자열이나 파일에서 텍스트 프롬프트 지원
- 여러 모델을 병렬로 실행
--default-models
목록의 첫 번째 모델을 사용하여 자동 모델 이름 수정- 파일에 대한 응답을 저장하는 기능
- 사용 가능한 공급자 및 모델을 쉽게 나열
설치
지엑스피1
환경 변수
API 키로 .env
파일을 만듭니다( .env.sample
파일을 복사할 수 있습니다).
그런 다음 .env
파일을 편집하여 API 키를 추가하거나 셸에서 내보냅니다.
클로드 코드 설치
기본 모델이 anthropic:claude-3-7-sonnet-20250219
로 설정되었습니다.
저장소에서 바로 Claude Code를 사용하면 .mcp.json 파일에서 기본 모델을 다음과 같이 설정한 것을 볼 수 있습니다.
--default-models
매개변수는 API 엔드포인트에 명시적으로 제공된 모델이 없을 때 사용할 모델을 설정합니다. 목록의 첫 번째 모델은 필요 시 모델 이름 수정에도 사용됩니다. 쉼표로 구분된 모델 목록일 수 있습니다.
서버를 시작하면 사용자 환경에서 사용 가능한 API 키를 자동으로 확인하고 사용 가능한 공급자를 알려줍니다. 키가 없는 경우 공급자는 사용할 수 없음으로 표시되지만, 서버는 계속 시작되고 사용 가능한 공급자를 통해 사용할 수 있습니다.
mcp add-json
사용
이것을 복사하여 Claude 코드에 붙여 넣으세요. 하지만 JSON을 복사할 때까지 실행하지 마세요.
복사할 JSON
사용자 정의 기본 모델을 openai:gpt-4o
로 설정합니다.
여러 기본 모델 사용:
프로젝트 범위에 mcp add
사용
mcp remove
클로드 MCP Just-Prompt 제거
테스트 실행
코드베이스 구조
맥락 프라이밍
README.md를 읽은 다음 git ls-files와 'eza --git-ignore --tree'를 실행하여 프로젝트의 컨텍스트를 이해하세요.
클로드와 함께 생각하는 토큰
인간 중심적 클로드 모델 claude-3-7-sonnet-20250219
은 사고 토큰을 사용하여 확장된 사고 능력을 지원합니다. 이를 통해 클로드는 답변하기 전에 더욱 심도 있는 사고 과정을 수행할 수 있습니다.
다음 형식으로 모델 이름에 접미사를 추가하여 사고 토큰을 활성화할 수 있습니다.
anthropic:claude-3-7-sonnet-20250219:1k
- 생각 토큰 1024개를 사용하세요anthropic:claude-3-7-sonnet-20250219:4k
- 4096개의 사고 토큰을 사용하세요anthropic:claude-3-7-sonnet-20250219:8000
- 생각 토큰 8000개 사용
사용 예:
참고사항:
- 사고 토큰은
claude-3-7-sonnet-20250219
모델에서만 지원됩니다. - 유효한 사고 토큰 예산은 1024에서 16000까지입니다.
- 이 범위를 벗어난 값은 자동으로 범위 내로 조정됩니다.
- 예산은 k 표기법(1k, 4k 등)이나 정확한 숫자(1024, 4096 등)로 지정할 수 있습니다.
자원
This server cannot be installed
OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, Ollama를 포함한 다양한 LLM 공급자에게 통합 인터페이스를 제공하는 가벼운 MCP 서버입니다.