Just Prompt

Integrations

  • Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.

  • Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.

  • Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.

Just Prompt: un servidor MCP liviano para proveedores de LLM

just-prompt es un servidor de Protocolo de Control de Modelos (MCP) que proporciona una interfaz unificada para varios proveedores de Modelos de Lenguaje Grandes (LLM), incluidos OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama.

Herramientas

Las siguientes herramientas MCP están disponibles en el servidor:

  • prompt : envía un aviso a varios modelos LLM
    • Parámetros:
      • text : El texto del mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
  • prompt_from_file : envía un mensaje desde un archivo a varios modelos LLM
    • Parámetros:
      • file : Ruta al archivo que contiene el mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
  • prompt_from_file_to_file : envía una solicitud desde un archivo a varios modelos LLM y guarda las respuestas como archivos Markdown
    • Parámetros:
      • file : Ruta al archivo que contiene el mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
      • output_dir (predeterminado: "."): Directorio donde guardar los archivos de Markdown de respuesta
  • list_providers : enumera todos los proveedores de LLM disponibles
    • Parámetros: Ninguno
  • list_models : enumera todos los modelos disponibles para un proveedor LLM específico
    • Parámetros:
      • provider : Proveedor para listar modelos (por ejemplo, 'openai' o 'o')

Prefijos de proveedor

Cada modelo debe tener como prefijo el nombre del proveedor.

Utilice el nombre corto para una referencia más rápida

  • o o openai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a o anthropic : Antrópico
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • g o gemini : Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini:gemini-2.5-pro-exp-03-25
  • q o groq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • d o deepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • l o ollama : Ollama
    • l:llama3.1
    • ollama:llama3.1

Características

  • API unificada para múltiples proveedores de LLM
  • Soporte para indicaciones de texto desde cadenas o archivos
  • Ejecutar múltiples modelos en paralelo
  • Corrección automática del nombre del modelo utilizando el primer modelo en la lista --default-models
  • Capacidad de guardar respuestas en archivos
  • Listado sencillo de proveedores y modelos disponibles

Instalación

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

Variables de entorno

Crea un archivo .env con tus claves API (puedes copiar el archivo .env.sample ):

cp .env.sample .env

Luego edita el archivo .env para agregar tus claves API (o expórtalas en tu shell):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

Instalación de Claude Code

Modelo predeterminado establecido en anthropic:claude-3-7-sonnet-20250219 .

Si usa Claude Code directamente desde el repositorio, puede ver en el archivo .mcp.json que configuramos los modelos predeterminados en...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:o3-mini,gemini:gemini-2.5-pro-exp-03-25" ], "env": {} } } }

El parámetro --default-models define los modelos que se usarán cuando no se proporcione ninguno explícitamente a los endpoints de la API. El primer modelo de la lista también se utiliza para corregir el nombre del modelo cuando sea necesario. Puede ser una lista de modelos separados por comas.

Al iniciar el servidor, este comprobará automáticamente qué claves API están disponibles en su entorno y le informará qué proveedores puede usar. Si falta una clave, el proveedor aparecerá como no disponible, pero el servidor se iniciará y podrá usarse con los proveedores disponibles.

Uso mcp add-json

Copia esto y pégalo en el código de Claude, PERO no lo ejecutes hasta que copies el json.

claude mcp add just-prompt "$(pbpaste)"

JSON para copiar

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

Con un modelo predeterminado personalizado establecido en openai:gpt-4o .

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

Con múltiples modelos predeterminados:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "anthropic:claude-3-7-sonnet-20250219,openai:gpt-4o,gemini:gemini-2.5-pro-exp-03-25"] }

Uso de mcp add con el alcance del proyecto

# With default model (anthropic:claude-3-7-sonnet-20250219) claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "anthropic:claude-3-7-sonnet-20250219:4k,openai:o3-mini,gemini:gemini-2.0-flash,openai:gpt-4.5-preview,gemini:gemini-2.5-pro-exp-03-25"

mcp remove

Claude MCP elimina just-prompt

Ejecución de pruebas

uv run pytest

Estructura del código base

. ├── ai_docs/ # Documentation for AI model details │ ├── llm_providers_details.xml │ └── pocket-pick-mcp-server-example.xml ├── list_models.py # Script to list available LLM models ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ └── init-just-prompt.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules

Preparación del contexto

LEA README.md, luego ejecute git ls-files y 'eza --git-ignore --tree' para comprender el contexto del proyecto.

Pensando en fichas con Claude

El modelo antrópico de Claude claude-3-7-sonnet-20250219 fomenta capacidades de pensamiento ampliadas mediante fichas de pensamiento. Esto le permite a Claude realizar procesos de pensamiento más profundos antes de responder.

Puedes habilitar tokens de pensamiento agregando un sufijo al nombre del modelo en este formato:

  • anthropic:claude-3-7-sonnet-20250219:1k - Usa 1024 fichas de pensamiento
  • anthropic:claude-3-7-sonnet-20250219:4k - Usa 4096 fichas de pensamiento
  • anthropic:claude-3-7-sonnet-20250219:8000 - Usa 8000 fichas de pensamiento

Ejemplo de uso:

# Using 4k thinking tokens with Claude uv run just-prompt prompt "Analyze the advantages and disadvantages of quantum computing vs classical computing" \ --models-prefixed-by-provider anthropic:claude-3-7-sonnet-20250219:4k

Notas:

  • Los tokens de pensamiento solo son compatibles con el modelo claude-3-7-sonnet-20250219
  • Los presupuestos de tokens de pensamiento válido varían de 1024 a 16000
  • Los valores fuera de este rango se ajustarán automáticamente para estar dentro del rango.
  • Puede especificar el presupuesto con notación k (1k, 4k, etc.) o con números exactos (1024, 4096, etc.)

Recursos

-
security - not tested
F
license - not found
-
quality - not tested

Un servidor MCP liviano que proporciona una interfaz unificada para varios proveedores de LLM, incluidos OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama.

  1. Tools
    1. Provider Prefixes
      1. Features
        1. Installation
          1. Environment Variables
        2. Claude Code Installation
          1. Using mcp add-json
          2. Using mcp add with project scope
        3. mcp remove
          1. Running Tests
            1. Codebase Structure
              1. Context Priming
                1. Thinking Tokens with Claude
                  1. Resources
                    ID: rpr6b7nr51