Just Prompt - 为 LLM 提供商提供的轻量级 MCP 服务器
just-prompt
是一个模型控制协议 (MCP) 服务器,它为各种大型语言模型 (LLM) 提供商(包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama)提供统一接口。点击此处,了解我们如何利用ceo_and_board
工具,通过 o3 轻松做出艰难决策。
工具
服务器中提供以下 MCP 工具:
prompt
:向多个 LLM 模型发送提示- 参数:
text
:提示文本models_prefixed_by_provider
(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
- 参数:
prompt_from_file
:将提示从文件发送到多个 LLM 模型- 参数:
file
:包含提示的文件的路径models_prefixed_by_provider
(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。
- 参数:
prompt_from_file_to_file
:将提示从文件发送到多个 LLM 模型,并将响应保存为 markdown 文件- 参数:
file
:包含提示的文件的路径models_prefixed_by_provider
(可选):带有提供商前缀的模型列表。若未提供,则使用默认模型。output_dir
(默认值:“。”):保存响应 markdown 文件的目录
- 参数:
ceo_and_board
:向多个“董事会成员”模型发送提示,并让“CEO”模型根据他们的回应做出决定- 参数:
file
:包含提示的文件的路径models_prefixed_by_provider
(可选):指定作为董事会成员的模型列表(需包含提供商前缀)。若未提供,则使用默认模型。output_dir
(默认值:“。”):保存响应文件和CEO决策的目录ceo_model
(默认值:“openai:o3”):用于 CEO 决策的模型,格式为“provider:model”
- 参数:
list_providers
:列出所有可用的 LLM 提供商- 参数:无
list_models
:列出特定 LLM 提供商的所有可用模型- 参数:
provider
:列出模型的提供者(例如“openai”或“o”)
- 参数:
提供商前缀
每个模型必须以提供商名称作为前缀
使用简称以便更快地引用
o
或openai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a``anthropic
:人类的a:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
或gemini
:Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini-2.5-pro-exp-03-25
q
或groq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
或deepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
或ollama
: Ollamal:llama3.1
ollama:llama3.1
特征
- 为多个 LLM 提供商提供统一的 API
- 支持来自字符串或文件的文本提示
- 并行运行多个模型
- 使用
--default-models
列表中的第一个模型自动更正模型名称 - 能够保存对文件的响应
- 轻松列出可用的提供商和型号
安装
环境变量
使用您的 API 密钥创建一个.env
文件(您可以复制.env.sample
文件):
然后编辑.env
文件以添加您的 API 密钥(或在您的 shell 中导出它们):
克劳德代码安装
在所有这些示例中,将目录替换为 just-prompt 目录的路径。
默认模型设置为openai:o3:high
、 openai:o4-mini:high
、 anthropic:claude-3-7-sonnet-20250219:4k
、 gemini:gemini-2.5-pro-preview-03-25
和gemini:gemini-2.5-flash-preview-04-17
。
如果您直接从存储库中使用 Claude Code,您可以在 .mcp.json 文件中看到我们将默认模型设置为...
--default-models
参数用于设置未向 API 端点显式提供任何模型时要使用的模型。列表中的第一个模型也用于在需要时更正模型名称。该列表可以是用逗号分隔的模型列表。
启动服务器时,它会自动检查您的环境中有哪些 API 密钥可用,并告知您可以使用哪些提供程序。如果缺少密钥,该提供程序将被列为不可用,但服务器仍会启动,并可使用可用的提供程序。
使用mcp add-json
复制此代码并将其粘贴到 Claude 代码中,但不要运行,直到复制 json
要复制的 JSON
将自定义默认模型设置为openai:gpt-4o
。
具有多个默认模型:
使用mcp add
和项目范围
mcp remove
claude mcp 删除 just-prompt
运行测试
代码库结构
情境启动
阅读 README.md、pyproject.toml,然后运行 git ls-files 和“eza --git-ignore --tree”以了解项目的上下文。
OpenAI o系列的推理工作
对于 OpenAI o 系列推理模型( o4-mini
、 o3-mini
、 o3
),您可以控制模型在产生可见答案之前执行的内部推理量。
将以下后缀之一附加到模型名称(在提供程序前缀之后):
:low
– 最低限度的内部推理(更快,更便宜):medium
– 平衡(省略则为默认值):high
– 彻底的推理(较慢,更多标记)
例子:
openai:o4-mini:low
o:o4-mini:high
当存在推理后缀时, just-prompt会自动切换到 OpenAI Responses API(如果可用)并设置相应的reasoning.effort
参数。如果安装的 OpenAI SDK 版本较旧,它会优雅地回退到 Chat Completions 端点,并嵌入内部系统指令以接近请求的努力程度。
与克劳德一起思考代币
人择克劳德模型claude-3-7-sonnet-20250219
支持使用思考标记来扩展思考能力。这使得克劳德在回答问题之前能够进行更彻底的思考。
您可以通过在模型名称中添加以下格式的后缀来启用思考标记:
anthropic:claude-3-7-sonnet-20250219:1k
- 使用 1024 个思考标记anthropic:claude-3-7-sonnet-20250219:4k
- 使用 4096 个思考标记anthropic:claude-3-7-sonnet-20250219:8000
- 使用 8000 个思考标记
笔记:
- 思考标记仅支持
claude-3-7-sonnet-20250219
模型 - 有效思考代币预算范围从 1024 到 16000
- 此范围之外的值将自动调整到范围内
- 您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。
与双子座一起思考预算
Google Gemini 模型gemini-2.5-flash-preview-04-17
支持使用思考预算扩展思考能力。这使得 Gemini 能够在提供响应之前进行更彻底的推理。
您可以通过在模型名称中添加以下格式的后缀来启用思考预算:
gemini:gemini-2.5-flash-preview-04-17:1k
- 使用 1024 思考预算gemini:gemini-2.5-flash-preview-04-17:4k
- 使用 4096 思考预算gemini:gemini-2.5-flash-preview-04-17:8000
- 使用 8000 的思考预算
笔记:
- Thinking budget 仅支持
gemini-2.5-flash-preview-04-17
型号 - 有效思考预算范围从 0 到 24576
- 超出此范围的值将自动调整到范围内
- 您可以使用 k 符号(1k、4k 等)或精确数字(1024、4096 等)指定预算。
资源
- https://docs.anthropic.com/en/api/models-list?q=list+models
- https://github.com/googleapis/python-genai
- https://platform.openai.com/docs/api-reference/models/list
- https://api-docs.deepseek.com/api/list-models
- https://github.com/ollama/ollama-python
- https://github.com/openai/openai-python
掌握人工智能编码
学习使用人工智能进行编码,并掌握人工智能编码的基本原理
关注IndyDevDan YouTube 频道,了解更多 AI 编码技巧和窍门。
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
轻量级 MCP 服务器,为各种 LLM 提供商提供统一的接口,包括 OpenAI、Anthropic、Google Gemini、Groq、DeepSeek 和 Ollama。
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated -41412JavaScriptMIT License
- AsecurityAlicenseAqualityAn MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.Last updated -441TypeScriptMIT License
- -securityAlicense-qualityA lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.Last updated -94TypeScriptMIT License