Skip to main content
Glama

Just Prompt

by disler

Just Prompt – Ein leichter MCP-Server für LLM-Anbieter

just-prompt ist ein Model Control Protocol (MCP)-Server, der eine einheitliche Schnittstelle zu verschiedenen Large Language Model (LLM)-Anbietern wie OpenAI, Anthropic, Google Gemini, Groq, DeepSeek und Ollama bietet. Erfahren Sie hier, wie wir das Tool ceo_and_board nutzen, um schwierige Entscheidungen mit o3 zu vereinfachen .

Werkzeuge

Die folgenden MCP-Tools sind auf dem Server verfügbar:

  • prompt : Senden Sie eine Eingabeaufforderung an mehrere LLM-Modelle
    • Parameter:
      • text : Der Eingabeaufforderungstext
      • models_prefixed_by_provider (optional): Liste der Modelle mit Providerpräfixen. Falls nicht angegeben, werden Standardmodelle verwendet.
  • prompt_from_file : Senden Sie eine Eingabeaufforderung aus einer Datei an mehrere LLM-Modelle
    • Parameter:
      • file : Pfad zur Datei, die die Eingabeaufforderung enthält
      • models_prefixed_by_provider (optional): Liste der Modelle mit Providerpräfixen. Falls nicht angegeben, werden Standardmodelle verwendet.
  • prompt_from_file_to_file : Senden Sie eine Eingabeaufforderung aus einer Datei an mehrere LLM-Modelle und speichern Sie die Antworten als Markdown-Dateien
    • Parameter:
      • file : Pfad zur Datei, die die Eingabeaufforderung enthält
      • models_prefixed_by_provider (optional): Liste der Modelle mit Providerpräfixen. Falls nicht angegeben, werden Standardmodelle verwendet.
      • output_dir (Standard: "."): Verzeichnis, in dem die Antwort-Markdown-Dateien gespeichert werden
  • ceo_and_board : Senden Sie eine Eingabeaufforderung an mehrere Vorstandsmitglied-Modelle und lassen Sie ein CEO-Modell basierend auf ihren Antworten eine Entscheidung treffen.
    • Parameter:
      • file : Pfad zur Datei, die die Eingabeaufforderung enthält
      • models_prefixed_by_provider (optional): Liste der Modelle mit Anbieterpräfixen, die als Boardmitglieder fungieren. Falls nicht angegeben, werden Standardmodelle verwendet.
      • output_dir (Standard: "."): Verzeichnis zum Speichern der Antwortdateien und der CEO-Entscheidung
      • ceo_model (Standard: "openai:o3"): Für die CEO-Entscheidung zu verwendendes Modell im Format "Anbieter:Modell"
  • list_providers : Listet alle verfügbaren LLM-Anbieter auf
    • Parameter: Keine
  • list_models : Listet alle verfügbaren Modelle für einen bestimmten LLM-Anbieter auf
    • Parameter:
      • provider : Anbieter, für den Modelle aufgelistet werden (z. B. „openai“ oder „o“)

Anbieterpräfixe

Jedem Modell muss der Anbietername vorangestellt werden

Verwenden Sie den Kurznamen für eine schnellere Referenzierung

  • o oder openai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a oder anthropic : Anthropisch
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • g oder gemini : Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini-2.5-pro-exp-03-25
  • q oder groq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • d oder deepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • l oder ollama : Ollama
    • l:llama3.1
    • ollama:llama3.1

Merkmale

  • Einheitliche API für mehrere LLM-Anbieter
  • Unterstützung für Texteingabeaufforderungen aus Zeichenfolgen oder Dateien
  • Führen Sie mehrere Modelle parallel aus
  • Automatische Modellnamenkorrektur mithilfe des ersten Modells in der Liste --default-models
  • Möglichkeit, Antworten in Dateien zu speichern
  • Einfache Auflistung verfügbarer Anbieter und Modelle

Installation

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

Umgebungsvariablen

Erstellen Sie eine .env Datei mit Ihren API-Schlüsseln (Sie können die .env.sample -Datei kopieren):

cp .env.sample .env

Bearbeiten Sie dann die .env Datei, um Ihre API-Schlüssel hinzuzufügen (oder exportieren Sie sie in Ihre Shell):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

Claude Code Installation

Ersetzen Sie in allen diesen Beispielen das Verzeichnis durch den Pfad zum Just-Prompt-Verzeichnis.

Standardmodelle eingestellt auf openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 und gemini:gemini-2.5-flash-preview-04-17 .

Wenn Sie Claude Code direkt aus dem Repository verwenden, können Sie in der Datei .mcp.json sehen, dass wir die Standardmodelle auf ... eingestellt haben.

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17" ], "env": {} } } }

Der Parameter --default-models legt die zu verwendenden Modelle fest, wenn den API-Endpunkten keine explizit zur Verfügung gestellt werden. Das erste Modell in der Liste wird bei Bedarf auch zur Modellnamenkorrektur verwendet. Dies kann eine durch Kommas getrennte Liste von Modellen sein.

Beim Starten des Servers wird automatisch geprüft, welche API-Schlüssel in Ihrer Umgebung verfügbar sind, und Sie werden darüber informiert, welche Anbieter Sie verwenden können. Fehlt ein Schlüssel, wird der Anbieter als nicht verfügbar aufgeführt. Der Server startet jedoch trotzdem und kann mit den verfügbaren Anbietern verwendet werden.

Verwenden von mcp add-json

Kopieren Sie dies und fügen Sie es in Claude Code ein, ABER führen Sie es nicht aus, bis Sie das JSON kopiert haben

claude mcp add just-prompt "$(pbpaste)"

Zu kopierendes JSON

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

Mit einem benutzerdefinierten Standardmodell, das auf openai:gpt-4o eingestellt ist.

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

Mit mehreren Standardmodellen:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"] }

Verwenden von mcp add mit Projektumfang

# With default models claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

Claude MCP entfernen Just-Prompt

Ausführen von Tests

uv run pytest

Codebasisstruktur

. ├── ai_docs/ # Documentation for AI model details │ ├── extending_thinking_sonny.md │ ├── llm_providers_details.xml │ ├── openai-reasoning-effort.md │ └── pocket-pick-mcp-server-example.xml ├── example_outputs/ # Example outputs from different models ├── list_models.py # Script to list available LLM models ├── prompts/ # Example prompt files ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ ├── init-just-prompt.md │ ├── new-tool-llm-as-a-ceo.md │ └── oai-reasoning-levels.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── ceo_and_board_prompt.py │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules │ ├── test_ceo_and_board_prompt.py │ ├── test_list_models.py │ ├── test_list_providers.py │ ├── test_prompt.py │ ├── test_prompt_from_file.py │ └── test_prompt_from_file_to_file.py └── ultra_diff_review/ # Diff review outputs

Kontext-Priming

LESEN SIE README.md, pyproject.toml, führen Sie dann git ls-files und „eza --git-ignore --tree“ aus, um den Kontext des Projekts zu verstehen.

Argumentationsaufwand mit OpenAI o‑Series

Bei OpenAI o‑series-Argumentationsmodellen ( o4-mini , o3-mini , o3 ) können Sie steuern, wie viel internes Denken das Modell durchführt, bevor es eine sichtbare Antwort produziert.

Hängen Sie an den Modellnamen (nach dem Anbieterpräfix ) eines der folgenden Suffixe an:

  • :low – minimale interne Argumentation (schneller, billiger)
  • :medium – ausgewogen (Standard, wenn weggelassen)
  • :high – gründliche Argumentation (langsamer, mehr Token)

Beispiele:

  • openai:o4-mini:low
  • o:o4-mini:high

Wenn ein Reasoning-Suffix vorhanden ist, wechselt just‑prompt automatisch zur OpenAI Responses API (sofern verfügbar) und setzt den entsprechenden reasoning.effort -Parameter. Ist das installierte OpenAI SDK älter, greift es auf den Chat Completions-Endpunkt zurück und bettet eine interne Systemanweisung ein, um den angeforderten Aufwand zu approximieren.

Denkmarken mit Claude

Das anthropische Claude-Modell claude-3-7-sonnet-20250219 unterstützt erweiterte Denkfähigkeiten mithilfe von Denktoken. Dies ermöglicht Claude, vor der Antwort gründlicher zu denken.

Sie können Denktoken aktivieren, indem Sie dem Modellnamen ein Suffix in diesem Format hinzufügen:

  • anthropic:claude-3-7-sonnet-20250219:1k - 1024 Denkmarken verwenden
  • anthropic:claude-3-7-sonnet-20250219:4k - 4096 Denkmarken verwenden
  • anthropic:claude-3-7-sonnet-20250219:8000 - 8000 Denkmarker verwenden

Hinweise:

  • Denktoken werden nur für das Modell claude-3-7-sonnet-20250219 unterstützt
  • Gültige Denktoken-Budgets reichen von 1024 bis 16000
  • Werte außerhalb dieses Bereichs werden automatisch angepasst, um innerhalb des Bereichs zu liegen
  • Sie können das Budget in der K-Notation (1k, 4k usw.) oder mit genauen Zahlen (1024, 4096 usw.) angeben.

Budgetplanung mit Gemini

Das Google Gemini-Modell gemini-2.5-flash-preview-04-17 unterstützt erweiterte Denkfähigkeiten mithilfe des Denkbudgets. Dadurch kann Gemini gründlichere Überlegungen anstellen, bevor eine Antwort bereitgestellt wird.

Sie können das Denkbudget aktivieren, indem Sie dem Modellnamen ein Suffix in diesem Format hinzufügen:

  • gemini:gemini-2.5-flash-preview-04-17:1k - Verwenden Sie 1024 Denkbudget
  • gemini:gemini-2.5-flash-preview-04-17:4k - 4096 Denkbudget verwenden
  • gemini:gemini-2.5-flash-preview-04-17:8000 - Verwenden Sie 8000 Denkbudget

Hinweise:

  • Das Thinking-Budget wird nur für das Modell gemini-2.5-flash-preview-04-17 unterstützt.
  • Gültiger Denkbudgetbereich von 0 bis 24576
  • Werte außerhalb dieses Bereichs werden automatisch angepasst, um innerhalb des Bereichs zu liegen
  • Sie können das Budget in der K-Notation (1k, 4k usw.) oder mit genauen Zahlen (1024, 4096 usw.) angeben.

Ressourcen

Meistern Sie die KI-Codierung

Lernen Sie, mit KI zu programmieren, mit den Grundlagen der KI-Programmierung

Folgen Sie dem YouTube-Kanal IndyDevDan für weitere Tipps und Tricks zur KI-Codierung.

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein leichtgewichtiger MCP-Server, der eine einheitliche Schnittstelle zu verschiedenen LLM-Anbietern bereitstellt, darunter OpenAI, Anthropic, Google Gemini, Groq, DeepSeek und Ollama.

  1. Werkzeuge
    1. Anbieterpräfixe
      1. Merkmale
        1. Installation
          1. Umgebungsvariablen
        2. Claude Code Installation
          1. Verwenden von mcp add-json
          2. Verwenden von mcp add mit Projektumfang
        3. mcp remove
          1. Ausführen von Tests
            1. Codebasisstruktur
              1. Kontext-Priming
                1. Argumentationsaufwand mit OpenAI o‑Series
                  1. Denkmarken mit Claude
                    1. Budgetplanung mit Gemini
                      1. Ressourcen
                      2. Meistern Sie die KI-Codierung

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                      Last updated -
                      1
                      Python
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that provides LLMs access to other LLMs
                      Last updated -
                      4
                      14
                      12
                      JavaScript
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
                      Last updated -
                      4
                      4
                      1
                      TypeScript
                      MIT License
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.
                      Last updated -
                      94
                      TypeScript
                      MIT License
                      • Linux
                      • Apple

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server