Just Prompt

Integrations

  • Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.

  • Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.

  • Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.

Just Prompt - LLMプロバイダー向けの軽量MCPサーバー

just-prompt 、OpenAI、Anthropic、Google Gemini、Groq、DeepSeek、Ollama などのさまざまな Large Language Model (LLM) プロバイダーへの統一されたインターフェースを提供するモデル制御プロトコル (MCP) サーバーです。

ツール

サーバーでは次の MCP ツールが使用できます。

  • prompt : 複数の LLM モデルにプロンプトを送信する
    • パラメータ:
      • text : プロンプトテキスト
      • models_prefixed_by_provider (オプション): プロバイダープレフィックスを持つモデルのリスト。指定されていない場合は、デフォルトのモデルが使用されます。
  • prompt_from_file : ファイルから複数の LLM モデルにプロンプトを送信する
    • パラメータ:
      • file : プロンプトを含むファイルへのパス
      • models_prefixed_by_provider (オプション): プロバイダープレフィックスを持つモデルのリスト。指定されていない場合は、デフォルトのモデルが使用されます。
  • prompt_from_file_to_file : ファイルから複数の LLM モデルにプロンプトを送信し、応答をマークダウン ファイルとして保存します。
    • パラメータ:
      • file : プロンプトを含むファイルへのパス
      • models_prefixed_by_provider (オプション): プロバイダープレフィックスを持つモデルのリスト。指定されていない場合は、デフォルトのモデルが使用されます。
      • output_dir (デフォルト: "."): レスポンスマークダウンファイルを保存するディレクトリ
  • list_providers : 利用可能なすべての LLM プロバイダーを一覧表示します
    • パラメータ: なし
  • list_models : 特定の LLM プロバイダーで利用可能なすべてのモデルを一覧表示します。
    • パラメータ:
      • provider : モデルをリストするプロバイダー(例:'openai' または 'o')

プロバイダープレフィックス

すべてのモデルにはプロバイダー名を接頭辞として付ける必要があります

より速く参照するために短い名前を使用する

  • oまたはopenai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • aまたはanthropic : Anthropic
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • gまたはgemini : Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini:gemini-2.5-pro-exp-03-25
  • qまたはgroq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • dまたはdeepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • lまたはollama : Ollama
    • l:llama3.1
    • ollama:llama3.1

特徴

  • 複数の LLM プロバイダー向けの統合 API
  • 文字列またはファイルからのテキストプロンプトのサポート
  • 複数のモデルを並列に実行する
  • --default-modelsリストの最初のモデルを使用してモデル名を自動的に修正します
  • 応答をファイルに保存する機能
  • 利用可能なプロバイダーとモデルの簡単なリスト

インストール

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

環境変数

API キーを使用して.envファイルを作成します ( .env.sampleファイルをコピーできます)。

cp .env.sample .env

次に、 .envファイルを編集して API キーを追加します (またはシェルでエクスポートします)。

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

クロードコードのインストール

デフォルトモデルはanthropic:claude-3-7-sonnet-20250219に設定されています。

リポジトリから直接 Claude Code を使用する場合、.mcp.json ファイルでデフォルトのモデルが次のように設定されていることがわかります...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:o3-mini,gemini:gemini-2.5-pro-exp-03-25" ], "env": {} } } }

--default-modelsパラメータは、APIエンドポイントに明示的にモデルが指定されていない場合に使用するモデルを設定します。リストの最初のモデルは、必要に応じてモデル名の修正にも使用されます。モデルはカンマ区切りで複数指定できます。

サーバーを起動すると、お使いの環境で利用可能なAPIキーが自動的に確認され、利用可能なプロバイダーが通知されます。キーが不足している場合、そのプロバイダーは利用不可として表示されますが、サーバーは起動し、利用可能なプロバイダーで使用できます。

mcp add-json使用

これをコピーして、claudeコードに貼り付けます。ただし、jsonをコピーするまでは実行しないでください。

claude mcp add just-prompt "$(pbpaste)"

コピーするJSON

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

カスタムのデフォルト モデルをopenai:gpt-4oに設定します。

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

複数のデフォルト モデルの場合:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:gpt-4o,gemini:gemini-2.5-pro-exp-03-25"] }

プロジェクトスコープでmcp add使用する

# With default model (anthropic:claude-3-7-sonnet-20250219) claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "anthropic:claude-3-7-sonnet-20250219:4k,openai:o3-mini,gemini:gemini-2.0-flash,openai:gpt-4.5-preview,gemini:gemini-2.5-pro-exp-03-25"

mcp remove

クロード・MCP 削除 ジャストプロンプト

テストの実行

uv run pytest

コードベースの構造

. ├── ai_docs/ # Documentation for AI model details │ ├── llm_providers_details.xml │ └── pocket-pick-mcp-server-example.xml ├── list_models.py # Script to list available LLM models ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ └── init-just-prompt.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules

コンテキストプライミング

README.md を読んでから、git ls-files と 'eza --git-ignore --tree' を実行して、プロジェクトのコンテキストを理解します。

クロードとトークンを考える

人間中心のクロードモデルclaude-3-7-sonnet-20250219思考トークンを用いた拡張思考機能をサポートします。これにより、クロードは回答前により綿密な思考プロセスを行うことができます。

次の形式でモデル名にサフィックスを追加することで、思考トークンを有効にすることができます。

  • anthropic:claude-3-7-sonnet-20250219:1k - 思考トークンを1024個使用する
  • anthropic:claude-3-7-sonnet-20250219:4k - 思考トークンを4096個使用する
  • anthropic:claude-3-7-sonnet-20250219:8000 - 思考トークンを8000個使用する

使用例:

# Using 4k thinking tokens with Claude uv run just-prompt prompt "Analyze the advantages and disadvantages of quantum computing vs classical computing" \ --models-prefixed-by-provider anthropic:claude-3-7-sonnet-20250219:4k

注記:

  • 思考トークンはclaude-3-7-sonnet-20250219モデルでのみサポートされています。
  • 有効な思考トークン予算の範囲は1024から16000です
  • この範囲外の値は範囲内に自動的に調整されます
  • 予算は、k 表記 (1k、4k など) または正確な数値 (1024、4096 など) で指定できます。

リソース

-
security - not tested
F
license - not found
-
quality - not tested

OpenAI、Anthropic、Google Gemini、Groq、DeepSeek、Ollama などのさまざまな LLM プロバイダーへの統合インターフェースを提供する軽量 MCP サーバーです。

  1. Tools
    1. Provider Prefixes
      1. Features
        1. Installation
          1. Environment Variables
        2. Claude Code Installation
          1. Using mcp add-json
          2. Using mcp add with project scope
        3. mcp remove
          1. Running Tests
            1. Codebase Structure
              1. Context Priming
                1. Thinking Tokens with Claude
                  1. Resources
                    ID: rpr6b7nr51