Integrations
Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.
Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.
Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.
Just Prompt - LLMプロバイダー向けの軽量MCPサーバー
just-prompt
、OpenAI、Anthropic、Google Gemini、Groq、DeepSeek、Ollama などのさまざまな Large Language Model (LLM) プロバイダーへの統一されたインターフェースを提供するモデル制御プロトコル (MCP) サーバーです。
ツール
サーバーでは次の MCP ツールが使用できます。
prompt
: 複数の LLM モデルにプロンプトを送信する- パラメータ:
text
: プロンプトテキストmodels_prefixed_by_provider
(オプション): プロバイダープレフィックスを持つモデルのリスト。指定されていない場合は、デフォルトのモデルが使用されます。
- パラメータ:
prompt_from_file
: ファイルから複数の LLM モデルにプロンプトを送信する- パラメータ:
file
: プロンプトを含むファイルへのパスmodels_prefixed_by_provider
(オプション): プロバイダープレフィックスを持つモデルのリスト。指定されていない場合は、デフォルトのモデルが使用されます。
- パラメータ:
prompt_from_file_to_file
: ファイルから複数の LLM モデルにプロンプトを送信し、応答をマークダウン ファイルとして保存します。- パラメータ:
file
: プロンプトを含むファイルへのパスmodels_prefixed_by_provider
(オプション): プロバイダープレフィックスを持つモデルのリスト。指定されていない場合は、デフォルトのモデルが使用されます。output_dir
(デフォルト: "."): レスポンスマークダウンファイルを保存するディレクトリ
- パラメータ:
list_providers
: 利用可能なすべての LLM プロバイダーを一覧表示します- パラメータ: なし
list_models
: 特定の LLM プロバイダーで利用可能なすべてのモデルを一覧表示します。- パラメータ:
provider
: モデルをリストするプロバイダー(例:'openai' または 'o')
- パラメータ:
プロバイダープレフィックス
すべてのモデルにはプロバイダー名を接頭辞として付ける必要があります
より速く参照するために短い名前を使用する
o
またはopenai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
またはanthropic
: Anthropica:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
またはgemini
: Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini:gemini-2.5-pro-exp-03-25
q
またはgroq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
またはdeepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
またはollama
: Ollamal:llama3.1
ollama:llama3.1
特徴
- 複数の LLM プロバイダー向けの統合 API
- 文字列またはファイルからのテキストプロンプトのサポート
- 複数のモデルを並列に実行する
--default-models
リストの最初のモデルを使用してモデル名を自動的に修正します- 応答をファイルに保存する機能
- 利用可能なプロバイダーとモデルの簡単なリスト
インストール
環境変数
API キーを使用して.env
ファイルを作成します ( .env.sample
ファイルをコピーできます)。
次に、 .env
ファイルを編集して API キーを追加します (またはシェルでエクスポートします)。
クロードコードのインストール
デフォルトモデルはanthropic:claude-3-7-sonnet-20250219
に設定されています。
リポジトリから直接 Claude Code を使用する場合、.mcp.json ファイルでデフォルトのモデルが次のように設定されていることがわかります...
--default-models
パラメータは、APIエンドポイントに明示的にモデルが指定されていない場合に使用するモデルを設定します。リストの最初のモデルは、必要に応じてモデル名の修正にも使用されます。モデルはカンマ区切りで複数指定できます。
サーバーを起動すると、お使いの環境で利用可能なAPIキーが自動的に確認され、利用可能なプロバイダーが通知されます。キーが不足している場合、そのプロバイダーは利用不可として表示されますが、サーバーは起動し、利用可能なプロバイダーで使用できます。
mcp add-json
使用
これをコピーして、claudeコードに貼り付けます。ただし、jsonをコピーするまでは実行しないでください。
コピーするJSON
カスタムのデフォルト モデルをopenai:gpt-4o
に設定します。
複数のデフォルト モデルの場合:
プロジェクトスコープでmcp add
使用する
mcp remove
クロード・MCP 削除 ジャストプロンプト
テストの実行
コードベースの構造
コンテキストプライミング
README.md を読んでから、git ls-files と 'eza --git-ignore --tree' を実行して、プロジェクトのコンテキストを理解します。
クロードとトークンを考える
人間中心のクロードモデルclaude-3-7-sonnet-20250219
思考トークンを用いた拡張思考機能をサポートします。これにより、クロードは回答前により綿密な思考プロセスを行うことができます。
次の形式でモデル名にサフィックスを追加することで、思考トークンを有効にすることができます。
anthropic:claude-3-7-sonnet-20250219:1k
- 思考トークンを1024個使用するanthropic:claude-3-7-sonnet-20250219:4k
- 思考トークンを4096個使用するanthropic:claude-3-7-sonnet-20250219:8000
- 思考トークンを8000個使用する
使用例:
注記:
- 思考トークンは
claude-3-7-sonnet-20250219
モデルでのみサポートされています。 - 有効な思考トークン予算の範囲は1024から16000です
- この範囲外の値は範囲内に自動的に調整されます
- 予算は、k 表記 (1k、4k など) または正確な数値 (1024、4096 など) で指定できます。
リソース
This server cannot be installed
OpenAI、Anthropic、Google Gemini、Groq、DeepSeek、Ollama などのさまざまな LLM プロバイダーへの統合インターフェースを提供する軽量 MCP サーバーです。