Just Prompt – Ein leichter MCP-Server für LLM-Anbieter
just-prompt
ist ein Model Control Protocol (MCP)-Server, der eine einheitliche Schnittstelle zu verschiedenen Large Language Model (LLM)-Anbietern wie OpenAI, Anthropic, Google Gemini, Groq, DeepSeek und Ollama bietet. Erfahren Sie hier, wie wir das Tool ceo_and_board
nutzen, um schwierige Entscheidungen mit o3 zu vereinfachen .
Werkzeuge
Die folgenden MCP-Tools sind auf dem Server verfügbar:
prompt
: Senden Sie eine Eingabeaufforderung an mehrere LLM-Modelle- Parameter:
text
: Der Eingabeaufforderungstextmodels_prefixed_by_provider
(optional): Liste der Modelle mit Providerpräfixen. Falls nicht angegeben, werden Standardmodelle verwendet.
- Parameter:
prompt_from_file
: Senden Sie eine Eingabeaufforderung aus einer Datei an mehrere LLM-Modelle- Parameter:
file
: Pfad zur Datei, die die Eingabeaufforderung enthältmodels_prefixed_by_provider
(optional): Liste der Modelle mit Providerpräfixen. Falls nicht angegeben, werden Standardmodelle verwendet.
- Parameter:
prompt_from_file_to_file
: Senden Sie eine Eingabeaufforderung aus einer Datei an mehrere LLM-Modelle und speichern Sie die Antworten als Markdown-Dateien- Parameter:
file
: Pfad zur Datei, die die Eingabeaufforderung enthältmodels_prefixed_by_provider
(optional): Liste der Modelle mit Providerpräfixen. Falls nicht angegeben, werden Standardmodelle verwendet.output_dir
(Standard: "."): Verzeichnis, in dem die Antwort-Markdown-Dateien gespeichert werden
- Parameter:
ceo_and_board
: Senden Sie eine Eingabeaufforderung an mehrere Vorstandsmitglied-Modelle und lassen Sie ein CEO-Modell basierend auf ihren Antworten eine Entscheidung treffen.- Parameter:
file
: Pfad zur Datei, die die Eingabeaufforderung enthältmodels_prefixed_by_provider
(optional): Liste der Modelle mit Anbieterpräfixen, die als Boardmitglieder fungieren. Falls nicht angegeben, werden Standardmodelle verwendet.output_dir
(Standard: "."): Verzeichnis zum Speichern der Antwortdateien und der CEO-Entscheidungceo_model
(Standard: "openai:o3"): Für die CEO-Entscheidung zu verwendendes Modell im Format "Anbieter:Modell"
- Parameter:
list_providers
: Listet alle verfügbaren LLM-Anbieter auf- Parameter: Keine
list_models
: Listet alle verfügbaren Modelle für einen bestimmten LLM-Anbieter auf- Parameter:
provider
: Anbieter, für den Modelle aufgelistet werden (z. B. „openai“ oder „o“)
- Parameter:
Anbieterpräfixe
Jedem Modell muss der Anbietername vorangestellt werden
Verwenden Sie den Kurznamen für eine schnellere Referenzierung
o
oderopenai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
oderanthropic
: Anthropischa:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
odergemini
: Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini-2.5-pro-exp-03-25
q
odergroq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
oderdeepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
oderollama
: Ollamal:llama3.1
ollama:llama3.1
Merkmale
- Einheitliche API für mehrere LLM-Anbieter
- Unterstützung für Texteingabeaufforderungen aus Zeichenfolgen oder Dateien
- Führen Sie mehrere Modelle parallel aus
- Automatische Modellnamenkorrektur mithilfe des ersten Modells in der Liste
--default-models
- Möglichkeit, Antworten in Dateien zu speichern
- Einfache Auflistung verfügbarer Anbieter und Modelle
Installation
Umgebungsvariablen
Erstellen Sie eine .env
Datei mit Ihren API-Schlüsseln (Sie können die .env.sample
-Datei kopieren):
Bearbeiten Sie dann die .env
Datei, um Ihre API-Schlüssel hinzuzufügen (oder exportieren Sie sie in Ihre Shell):
Claude Code Installation
Ersetzen Sie in allen diesen Beispielen das Verzeichnis durch den Pfad zum Just-Prompt-Verzeichnis.
Standardmodelle eingestellt auf openai:o3:high
, openai:o4-mini:high
, anthropic:claude-3-7-sonnet-20250219:4k
, gemini:gemini-2.5-pro-preview-03-25
und gemini:gemini-2.5-flash-preview-04-17
.
Wenn Sie Claude Code direkt aus dem Repository verwenden, können Sie in der Datei .mcp.json sehen, dass wir die Standardmodelle auf ... eingestellt haben.
Der Parameter --default-models
legt die zu verwendenden Modelle fest, wenn den API-Endpunkten keine explizit zur Verfügung gestellt werden. Das erste Modell in der Liste wird bei Bedarf auch zur Modellnamenkorrektur verwendet. Dies kann eine durch Kommas getrennte Liste von Modellen sein.
Beim Starten des Servers wird automatisch geprüft, welche API-Schlüssel in Ihrer Umgebung verfügbar sind, und Sie werden darüber informiert, welche Anbieter Sie verwenden können. Fehlt ein Schlüssel, wird der Anbieter als nicht verfügbar aufgeführt. Der Server startet jedoch trotzdem und kann mit den verfügbaren Anbietern verwendet werden.
Verwenden von mcp add-json
Kopieren Sie dies und fügen Sie es in Claude Code ein, ABER führen Sie es nicht aus, bis Sie das JSON kopiert haben
Zu kopierendes JSON
Mit einem benutzerdefinierten Standardmodell, das auf openai:gpt-4o
eingestellt ist.
Mit mehreren Standardmodellen:
Verwenden von mcp add
mit Projektumfang
mcp remove
Claude MCP entfernen Just-Prompt
Ausführen von Tests
Codebasisstruktur
Kontext-Priming
LESEN SIE README.md, pyproject.toml, führen Sie dann git ls-files und „eza --git-ignore --tree“ aus, um den Kontext des Projekts zu verstehen.
Argumentationsaufwand mit OpenAI o‑Series
Bei OpenAI o‑series-Argumentationsmodellen ( o4-mini
, o3-mini
, o3
) können Sie steuern, wie viel internes Denken das Modell durchführt, bevor es eine sichtbare Antwort produziert.
Hängen Sie an den Modellnamen (nach dem Anbieterpräfix ) eines der folgenden Suffixe an:
:low
– minimale interne Argumentation (schneller, billiger):medium
– ausgewogen (Standard, wenn weggelassen):high
– gründliche Argumentation (langsamer, mehr Token)
Beispiele:
openai:o4-mini:low
o:o4-mini:high
Wenn ein Reasoning-Suffix vorhanden ist, wechselt just‑prompt automatisch zur OpenAI Responses API (sofern verfügbar) und setzt den entsprechenden reasoning.effort
-Parameter. Ist das installierte OpenAI SDK älter, greift es auf den Chat Completions-Endpunkt zurück und bettet eine interne Systemanweisung ein, um den angeforderten Aufwand zu approximieren.
Denkmarken mit Claude
Das anthropische Claude-Modell claude-3-7-sonnet-20250219
unterstützt erweiterte Denkfähigkeiten mithilfe von Denktoken. Dies ermöglicht Claude, vor der Antwort gründlicher zu denken.
Sie können Denktoken aktivieren, indem Sie dem Modellnamen ein Suffix in diesem Format hinzufügen:
anthropic:claude-3-7-sonnet-20250219:1k
- 1024 Denkmarken verwendenanthropic:claude-3-7-sonnet-20250219:4k
- 4096 Denkmarken verwendenanthropic:claude-3-7-sonnet-20250219:8000
- 8000 Denkmarker verwenden
Hinweise:
- Denktoken werden nur für das Modell
claude-3-7-sonnet-20250219
unterstützt - Gültige Denktoken-Budgets reichen von 1024 bis 16000
- Werte außerhalb dieses Bereichs werden automatisch angepasst, um innerhalb des Bereichs zu liegen
- Sie können das Budget in der K-Notation (1k, 4k usw.) oder mit genauen Zahlen (1024, 4096 usw.) angeben.
Budgetplanung mit Gemini
Das Google Gemini-Modell gemini-2.5-flash-preview-04-17
unterstützt erweiterte Denkfähigkeiten mithilfe des Denkbudgets. Dadurch kann Gemini gründlichere Überlegungen anstellen, bevor eine Antwort bereitgestellt wird.
Sie können das Denkbudget aktivieren, indem Sie dem Modellnamen ein Suffix in diesem Format hinzufügen:
gemini:gemini-2.5-flash-preview-04-17:1k
- Verwenden Sie 1024 Denkbudgetgemini:gemini-2.5-flash-preview-04-17:4k
- 4096 Denkbudget verwendengemini:gemini-2.5-flash-preview-04-17:8000
- Verwenden Sie 8000 Denkbudget
Hinweise:
- Das Thinking-Budget wird nur für das Modell
gemini-2.5-flash-preview-04-17
unterstützt. - Gültiger Denkbudgetbereich von 0 bis 24576
- Werte außerhalb dieses Bereichs werden automatisch angepasst, um innerhalb des Bereichs zu liegen
- Sie können das Budget in der K-Notation (1k, 4k usw.) oder mit genauen Zahlen (1024, 4096 usw.) angeben.
Ressourcen
- https://docs.anthropic.com/en/api/models-list?q=list+models
- https://github.com/googleapis/python-genai
- https://platform.openai.com/docs/api-reference/models/list
- https://api-docs.deepseek.com/api/list-models
- https://github.com/ollama/ollama-python
- https://github.com/openai/openai-python
Meistern Sie die KI-Codierung
Lernen Sie, mit KI zu programmieren, mit den Grundlagen der KI-Programmierung
Folgen Sie dem YouTube-Kanal IndyDevDan für weitere Tipps und Tricks zur KI-Codierung.
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein leichtgewichtiger MCP-Server, der eine einheitliche Schnittstelle zu verschiedenen LLM-Anbietern bereitstellt, darunter OpenAI, Anthropic, Google Gemini, Groq, DeepSeek und Ollama.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated -41412JavaScriptMIT License
- AsecurityAlicenseAqualityAn MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.Last updated -441TypeScriptMIT License
- -securityAlicense-qualityA lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.Last updated -94TypeScriptMIT License