Just Prompt - 为 LLM 提供商提供的轻量级 MCP 服务器
just-prompt是一个模型控制协议 (MCP) 服务器,它为各种大型语言模型 (LLM) 提供商(包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama)提供统一接口。点击此处,了解我们如何利用ceo_and_board工具,通过 o3 轻松做出艰难决策。
工具
服务器中提供以下 MCP 工具:
prompt:向多个 LLM 模型发送提示参数:
text:提示文本models_prefixed_by_provider(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
prompt_from_file:将提示从文件发送到多个 LLM 模型参数:
file:包含提示的文件的路径models_prefixed_by_provider(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
prompt_from_file_to_file:将提示从文件发送到多个 LLM 模型,并将响应保存为 markdown 文件参数:
file:包含提示的文件的路径models_prefixed_by_provider(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。output_dir(默认值:“。”):保存响应 markdown 文件的目录
ceo_and_board:向多个“董事会成员”模型发送提示,并让“CEO”模型根据他们的回应做出决定参数:
file:包含提示的文件的路径models_prefixed_by_provider(可选):指定作为董事会成员的模型列表(需包含提供商前缀)。若未提供,则使用默认模型。output_dir(默认值:“。”):保存响应文件和CEO决策的目录ceo_model(默认值:“openai:o3”):用于 CEO 决策的模型,格式为“provider:model”
list_providers:列出所有可用的 LLM 提供商参数:无
list_models:列出特定 LLM 提供商的所有可用模型参数:
provider:列出模型的提供者(例如“openai”或“o”)
Related MCP server: Library Docs MCP Server
提供商前缀
每个模型必须以提供商名称作为前缀
使用简称以便更快地引用
o或openai: OpenAIo:gpt-4o-miniopenai:gpt-4o-mini
a``anthropic:人类的a:claude-3-5-haikuanthropic:claude-3-5-haiku
g或gemini:Google Geminig:gemini-2.5-pro-exp-03-25gemini:gemini-2.5-pro-exp-03-25
q或groq: Groqq:llama-3.1-70b-versatilegroq:llama-3.1-70b-versatile
d或deepseek: DeepSeekd:deepseek-coderdeepseek:deepseek-coder
l或ollama: Ollamal:llama3.1ollama:llama3.1
特征
为多个 LLM 提供商提供统一的 API
支持来自字符串或文件的文本提示
并行运行多个模型
使用
--default-models列表中的第一个模型自动更正模型名称能够保存对文件的响应
轻松列出可用的提供商和型号
安装
环境变量
使用您的 API 密钥创建一个.env文件(您可以复制.env.sample文件):
然后编辑.env文件以添加您的 API 密钥(或在您的 shell 中导出它们):
克劳德代码安装
在所有这些示例中,将目录替换为 just-prompt 目录的路径。
默认模型设置为openai:o3:high 、 openai:o4-mini:high 、 anthropic:claude-3-7-sonnet-20250219:4k 、 gemini:gemini-2.5-pro-preview-03-25和gemini:gemini-2.5-flash-preview-04-17 。
如果您直接从存储库中使用 Claude Code,您可以在 .mcp.json 文件中看到我们将默认模型设置为...
--default-models参数用于设置未向 API 端点显式提供任何模型时要使用的模型。列表中的第一个模型也用于在需要时更正模型名称。该列表可以是用逗号分隔的模型列表。
启动服务器时,它会自动检查您的环境中有哪些 API 密钥可用,并告知您可以使用哪些提供程序。如果缺少密钥,该提供程序将被列为不可用,但服务器仍会启动,并可使用可用的提供程序。
使用mcp add-json
复制此代码并将其粘贴到 Claude 代码中,但不要运行,直到复制 json
要复制的 JSON
将自定义默认模型设置为openai:gpt-4o 。
具有多个默认模型:
使用mcp add和项目范围
mcp remove
claude mcp 删除 just-prompt
运行测试
代码库结构
情境启动
阅读 README.md、pyproject.toml,然后运行 git ls-files 和“eza --git-ignore --tree”以了解项目的上下文。
OpenAI o系列的推理工作
对于 OpenAI o 系列推理模型( o4-mini 、 o3-mini 、 o3 ),您可以控制模型在产生可见答案之前执行的内部推理量。
将以下后缀之一附加到模型名称(在提供程序前缀之后):
:low– 最低限度的内部推理(更快,更便宜):medium– 平衡(省略则为默认值):high– 彻底的推理(较慢,更多标记)
例子:
openai:o4-mini:lowo:o4-mini:high
当存在推理后缀时, just-prompt会自动切换到 OpenAI Responses API(如果可用)并设置相应的reasoning.effort参数。如果安装的 OpenAI SDK 版本较旧,它会优雅地回退到 Chat Completions 端点,并嵌入内部系统指令以接近请求的努力程度。
与克劳德一起思考代币
人择克劳德模型claude-3-7-sonnet-20250219支持使用思考标记来扩展思考能力。这使得克劳德在回答问题之前能够进行更彻底的思考。
您可以通过在模型名称中添加以下格式的后缀来启用思考标记:
anthropic:claude-3-7-sonnet-20250219:1k- 使用 1024 个思考标记anthropic:claude-3-7-sonnet-20250219:4k- 使用 4096 个思考标记anthropic:claude-3-7-sonnet-20250219:8000- 使用 8000 个思考标记
笔记:
思考标记仅支持
claude-3-7-sonnet-20250219模型有效思考代币预算范围从 1024 到 16000
此范围之外的值将自动调整到范围内
您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。
与双子座一起思考预算
Google Gemini 模型gemini-2.5-flash-preview-04-17支持使用思考预算扩展思考能力。这使得 Gemini 能够在提供响应之前进行更彻底的推理。
您可以通过在模型名称中添加以下格式的后缀来启用思考预算:
gemini:gemini-2.5-flash-preview-04-17:1k- 使用 1024 思考预算gemini:gemini-2.5-flash-preview-04-17:4k- 使用 4096 思考预算gemini:gemini-2.5-flash-preview-04-17:8000- 使用 8000 的思考预算
笔记:
Thinking budget 仅支持
gemini-2.5-flash-preview-04-17型号有效思考预算范围从 0 到 24576
超出此范围的值将自动调整到范围内
您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。
资源
掌握人工智能编码
学习使用人工智能进行编码,并掌握人工智能编码的基本原理
关注IndyDevDan YouTube 频道,了解更多 AI 编码技巧和窍门。