Skip to main content
Glama

Just Prompt - 为 LLM 提供商提供的轻量级 MCP 服务器

just-prompt是一个模型控制协议 (MCP) 服务器,它为各种大型语言模型 (LLM) 提供商(包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama)提供统一接口。点击此处,了解我们如何利用ceo_and_board工具,通过 o3 轻松做出艰难决策

工具

服务器中提供以下 MCP 工具:

  • prompt :向多个 LLM 模型发送提示

    • 参数:

      • text :提示文本

      • models_prefixed_by_provider (可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。

  • prompt_from_file :将提示从文件发送到多个 LLM 模型

    • 参数:

      • file :包含提示的文件的路径

      • models_prefixed_by_provider (可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。

  • prompt_from_file_to_file :将提示从文件发送到多个 LLM 模型,并将响应保存为 markdown 文件

    • 参数:

      • file :包含提示的文件的路径

      • models_prefixed_by_provider (可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。

      • output_dir (默认值:“。”):保存响应 markdown 文件的目录

  • ceo_and_board :向多个“董事会成员”模型发送提示,并让“CEO”模型根据他们的回应做出决定

    • 参数:

      • file :包含提示的文件的路径

      • models_prefixed_by_provider (可选):指定作为董事会成员的模型列表(需包含提供商前缀)。若未提供,则使用默认模型。

      • output_dir (默认值:“。”):保存响应文件和CEO决策的目录

      • ceo_model (默认值:“openai:o3”):用于 CEO 决策的模型,格式为“provider:model”

  • list_providers :列出所有可用的 LLM 提供商

    • 参数:无

  • list_models :列出特定 LLM 提供商的所有可用模型

    • 参数:

      • provider :列出模型的提供者(例如“openai”或“o”)

Related MCP server: Library Docs MCP Server

提供商前缀

每个模型必须以提供商名称作为前缀

使用简称以便更快地引用

  • oopenai : OpenAI

    • o:gpt-4o-mini

    • openai:gpt-4o-mini

  • a``anthropic :人类的

    • a:claude-3-5-haiku

    • anthropic:claude-3-5-haiku

  • ggemini :Google Gemini

    • g:gemini-2.5-pro-exp-03-25

    • gemini:gemini-2.5-pro-exp-03-25

  • qgroq : Groq

    • q:llama-3.1-70b-versatile

    • groq:llama-3.1-70b-versatile

  • ddeepseek : DeepSeek

    • d:deepseek-coder

    • deepseek:deepseek-coder

  • lollama : Ollama

    • l:llama3.1

    • ollama:llama3.1

特征

  • 为多个 LLM 提供商提供统一的 API

  • 支持来自字符串或文件的文本提示

  • 并行运行多个模型

  • 使用--default-models列表中的第一个模型自动更正模型名称

  • 能够保存对文件的响应

  • 轻松列出可用的提供商和型号

安装

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

环境变量

使用您的 API 密钥创建一个.env文件(您可以复制.env.sample文件):

cp .env.sample .env

然后编辑.env文件以添加您的 API 密钥(或在您的 shell 中导出它们):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

克劳德代码安装

在所有这些示例中,将目录替换为 just-prompt 目录的路径。

默认模型设置为openai:o3:highopenai:o4-mini:highanthropic:claude-3-7-sonnet-20250219:4kgemini:gemini-2.5-pro-preview-03-25gemini:gemini-2.5-flash-preview-04-17

如果您直接从存储库中使用 Claude Code,您可以在 .mcp.json 文件中看到我们将默认模型设置为...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17" ], "env": {} } } }

--default-models参数用于设置未向 API 端点显式提供任何模型时要使用的模型。列表中的第一个模型也用于在需要时更正模型名称。该列表可以是用逗号分隔的模型列表。

启动服务器时,它会自动检查您的环境中有哪些 API 密钥可用,并告知您可以使用哪些提供程序。如果缺少密钥,该提供程序将被列为不可用,但服务器仍会启动,并可使用可用的提供程序。

使用mcp add-json

复制此代码并将其粘贴到 Claude 代码中,但不要运行,直到复制 json

claude mcp add just-prompt "$(pbpaste)"

要复制的 JSON

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

将自定义默认模型设置为openai:gpt-4o

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

具有多个默认模型:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"] }

使用mcp add和项目范围

# With default models claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

claude mcp 删除 just-prompt

运行测试

uv run pytest

代码库结构

. ├── ai_docs/ # Documentation for AI model details │ ├── extending_thinking_sonny.md │ ├── llm_providers_details.xml │ ├── openai-reasoning-effort.md │ └── pocket-pick-mcp-server-example.xml ├── example_outputs/ # Example outputs from different models ├── list_models.py # Script to list available LLM models ├── prompts/ # Example prompt files ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ ├── init-just-prompt.md │ ├── new-tool-llm-as-a-ceo.md │ └── oai-reasoning-levels.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── ceo_and_board_prompt.py │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules │ ├── test_ceo_and_board_prompt.py │ ├── test_list_models.py │ ├── test_list_providers.py │ ├── test_prompt.py │ ├── test_prompt_from_file.py │ └── test_prompt_from_file_to_file.py └── ultra_diff_review/ # Diff review outputs

情境启动

阅读 README.md、pyproject.toml,然后运行 git ls-files 和“eza --git-ignore --tree”以了解项目的上下文。

OpenAI o系列的推理工作

对于 OpenAI o 系列推理模型( o4-minio3-minio3 ),您可以控制模型在产生可见答案之前执行的内部推理量。

将以下后缀之一附加到模型名称(在提供程序前缀之后):

  • :low – 最低限度的内部推理(更快,更便宜)

  • :medium – 平衡(省略则为默认值)

  • :high – 彻底的推理(较慢,更多标记)

例子:

  • openai:o4-mini:low

  • o:o4-mini:high

当存在推理后缀时, just-prompt会自动切换到 OpenAI Responses API(如果可用)并设置相应的reasoning.effort参数。如果安装的 OpenAI SDK 版本较旧,它会优雅地回退到 Chat Completions 端点,并嵌入内部系统指令以接近请求的努力程度。

与克劳德一起思考代币

人择克劳德模型claude-3-7-sonnet-20250219支持使用思考标记来扩展思考能力。这使得克劳德在回答问题之前能够进行更彻底的思考。

您可以通过在模型名称中添加以下格式的后缀来启用思考标记:

  • anthropic:claude-3-7-sonnet-20250219:1k - 使用 1024 个思考标记

  • anthropic:claude-3-7-sonnet-20250219:4k - 使用 4096 个思考标记

  • anthropic:claude-3-7-sonnet-20250219:8000 - 使用 8000 个思考标记

笔记:

  • 思考标记仅支持claude-3-7-sonnet-20250219模型

  • 有效思考代币预算范围从 1024 到 16000

  • 此范围之外的值将自动调整到范围内

  • 您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。

与双子座一起思考预算

Google Gemini 模型gemini-2.5-flash-preview-04-17支持使用思考预算扩展思考能力。这使得 Gemini 能够在提供响应之前进行更彻底的推理。

您可以通过在模型名称中添加以下格式的后缀来启用思考预算:

  • gemini:gemini-2.5-flash-preview-04-17:1k - 使用 1024 思考预算

  • gemini:gemini-2.5-flash-preview-04-17:4k - 使用 4096 思考预算

  • gemini:gemini-2.5-flash-preview-04-17:8000 - 使用 8000 的思考预算

笔记:

  • Thinking budget 仅支持gemini-2.5-flash-preview-04-17型号

  • 有效思考预算范围从 0 到 24576

  • 超出此范围的值将自动调整到范围内

  • 您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。

资源

掌握人工智能编码

学习使用人工智能进行编码,并掌握人工智能编码的基本原理

关注IndyDevDan YouTube 频道,了解更多 AI 编码技巧和窍门。

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

If you have feedback or need assistance with the MCP directory API, please join our Discord server