Just Prompt

Integrations

  • Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.

  • Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.

  • Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.

Just Prompt - 为 LLM 提供商提供的轻量级 MCP 服务器

just-prompt是一个模型控制协议 (MCP) 服务器,它为各种大型语言模型 (LLM) 提供商提供统一的接口,包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama。

工具

服务器中提供以下 MCP 工具:

  • prompt :向多个 LLM 模型发送提示
    • 参数:
      • text :提示文本
      • models_prefixed_by_provider (可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
  • prompt_from_file :将提示从文件发送到多个 LLM 模型
    • 参数:
      • file :包含提示的文件的路径
      • models_prefixed_by_provider (可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
  • prompt_from_file_to_file :将提示从文件发送到多个 LLM 模型,并将响应保存为 markdown 文件
    • 参数:
      • file :包含提示的文件的路径
      • models_prefixed_by_provider (可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
      • output_dir (默认值:“。”):保存响应 markdown 文件的目录
  • list_providers :列出所有可用的 LLM 提供商
    • 参数:无
  • list_models :列出特定 LLM 提供商的所有可用模型
    • 参数:
      • provider :列出模型的提供者(例如“openai”或“o”)

提供商前缀

每个模型必须以提供商名称作为前缀

使用简称以便更快地引用

  • oopenai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a``anthropic :人类的
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • ggemini :Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini:gemini-2.5-pro-exp-03-25
  • qgroq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • ddeepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • lollama : Ollama
    • l:llama3.1
    • ollama:llama3.1

特征

  • 为多个 LLM 提供商提供统一的 API
  • 支持来自字符串或文件的文本提示
  • 并行运行多个模型
  • 使用--default-models列表中的第一个模型自动更正模型名称
  • 能够保存对文件的响应
  • 轻松列出可用的提供商和型号

安装

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

环境变量

使用您的 API 密钥创建一个.env文件(您可以复制.env.sample文件):

cp .env.sample .env

然后编辑.env文件以添加您的 API 密钥(或在您的 shell 中导出它们):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

克劳德代码安装

默认模型设置为anthropic:claude-3-7-sonnet-20250219

如果您直接从存储库中使用 Claude Code,您可以在 .mcp.json 文件中看到我们将默认模型设置为...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:o3-mini,gemini:gemini-2.5-pro-exp-03-25" ], "env": {} } } }

--default-models参数用于设置未向 API 端点显式提供任何模型时要使用的模型。列表中的第一个模型也用于在需要时更正模型名称。该列表可以是用逗号分隔的模型列表。

启动服务器时,它会自动检查您的环境中有哪些 API 密钥可用,并告知您可以使用哪些提供程序。如果缺少密钥,该提供程序将被列为不可用,但服务器仍会启动,并可使用可用的提供程序。

使用mcp add-json

复制此代码并将其粘贴到 Claude 代码中,但不要运行,直到复制 json

claude mcp add just-prompt "$(pbpaste)"

要复制的 JSON

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

将自定义默认模型设置为openai:gpt-4o

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

具有多个默认模型:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:gpt-4o,gemini:gemini-2.5-pro-exp-03-25"] }

使用mcp add和项目范围

# With default model (anthropic:claude-3-7-sonnet-20250219) claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "anthropic:claude-3-7-sonnet-20250219:4k,openai:o3-mini,gemini:gemini-2.0-flash,openai:gpt-4.5-preview,gemini:gemini-2.5-pro-exp-03-25"

mcp remove

claude mcp 删除 just-prompt

运行测试

uv run pytest

代码库结构

. ├── ai_docs/ # Documentation for AI model details │ ├── llm_providers_details.xml │ └── pocket-pick-mcp-server-example.xml ├── list_models.py # Script to list available LLM models ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ └── init-just-prompt.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules

情境启动

阅读 README.md,然后运行 git ls-files 和“eza --git-ignore --tree”以了解项目的上下文。

与克劳德一起思考代币

人择克劳德模型claude-3-7-sonnet-20250219支持使用思考标记来扩展思考能力。这使得克劳德在回答问题之前能够进行更彻底的思考。

您可以通过在模型名称中添加以下格式的后缀来启用思考标记:

  • anthropic:claude-3-7-sonnet-20250219:1k - 使用 1024 个思考标记
  • anthropic:claude-3-7-sonnet-20250219:4k - 使用 4096 个思考标记
  • anthropic:claude-3-7-sonnet-20250219:8000 - 使用 8000 个思考标记

使用示例:

# Using 4k thinking tokens with Claude uv run just-prompt prompt "Analyze the advantages and disadvantages of quantum computing vs classical computing" \ --models-prefixed-by-provider anthropic:claude-3-7-sonnet-20250219:4k

笔记:

  • 思考标记仅支持claude-3-7-sonnet-20250219模型
  • 有效思考代币预算范围从 1024 到 16000
  • 超出此范围的值将自动调整到范围内
  • 您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。

资源

-
security - not tested
F
license - not found
-
quality - not tested

轻量级 MCP 服务器,为各种 LLM 提供商提供统一的接口,包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama。

  1. Tools
    1. Provider Prefixes
      1. Features
        1. Installation
          1. Environment Variables
        2. Claude Code Installation
          1. Using mcp add-json
          2. Using mcp add with project scope
        3. mcp remove
          1. Running Tests
            1. Codebase Structure
              1. Context Priming
                1. Thinking Tokens with Claude
                  1. Resources
                    ID: rpr6b7nr51