Skip to main content
Glama

Just Prompt

by disler

Just Prompt: un servidor MCP liviano para proveedores de LLM

just-prompt es un servidor de Protocolo de Control de Modelos (MCP) que proporciona una interfaz unificada para varios proveedores de Modelos de Lenguaje Grandes (LLM), como OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama. Vea cómo usamos la herramienta ceo_and_board para facilitar la toma de decisiones difíciles con o3 aquí .

Herramientas

Las siguientes herramientas MCP están disponibles en el servidor:

  • prompt : envía un aviso a varios modelos LLM
    • Parámetros:
      • text : El texto del mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
  • prompt_from_file : envía un mensaje desde un archivo a varios modelos LLM
    • Parámetros:
      • file : Ruta al archivo que contiene el mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
  • prompt_from_file_to_file : envía una solicitud desde un archivo a varios modelos LLM y guarda las respuestas como archivos Markdown
    • Parámetros:
      • file : Ruta al archivo que contiene el mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
      • output_dir (predeterminado: "."): Directorio donde guardar los archivos de Markdown de respuesta
  • ceo_and_board : envía un mensaje a varios modelos de 'miembros de la junta' y haz que un modelo 'CEO' tome una decisión según sus respuestas
    • Parámetros:
      • file : Ruta al archivo que contiene el mensaje
      • models_prefixed_by_provider (opcional): Lista de modelos con prefijos de proveedor que actúan como miembros de la junta. Si no se proporciona, se utilizan los modelos predeterminados.
      • output_dir (predeterminado: "."): Directorio para guardar los archivos de respuesta y la decisión del CEO
      • ceo_model (predeterminado: "openai:o3"): Modelo a utilizar para la decisión del CEO en formato "proveedor:modelo"
  • list_providers : enumera todos los proveedores de LLM disponibles
    • Parámetros: Ninguno
  • list_models : enumera todos los modelos disponibles para un proveedor LLM específico
    • Parámetros:
      • provider : Proveedor para listar modelos (por ejemplo, 'openai' o 'o')

Prefijos de proveedor

Cada modelo debe tener como prefijo el nombre del proveedor.

Utilice el nombre corto para una referencia más rápida

  • o o openai : OpenAI
    • o:gpt-4o-mini
    • openai:gpt-4o-mini
  • a o anthropic : Antrópico
    • a:claude-3-5-haiku
    • anthropic:claude-3-5-haiku
  • g o gemini : Google Gemini
    • g:gemini-2.5-pro-exp-03-25
    • gemini:gemini-2.5-pro-exp-03-25
  • q o groq : Groq
    • q:llama-3.1-70b-versatile
    • groq:llama-3.1-70b-versatile
  • d o deepseek : DeepSeek
    • d:deepseek-coder
    • deepseek:deepseek-coder
  • l o ollama : Ollama
    • l:llama3.1
    • ollama:llama3.1

Características

  • API unificada para múltiples proveedores de LLM
  • Soporte para indicaciones de texto desde cadenas o archivos
  • Ejecutar múltiples modelos en paralelo
  • Corrección automática del nombre del modelo utilizando el primer modelo en la lista --default-models
  • Capacidad de guardar respuestas en archivos
  • Listado sencillo de proveedores y modelos disponibles

Instalación

# Clone the repository git clone https://github.com/yourusername/just-prompt.git cd just-prompt # Install with pip uv sync

Variables de entorno

Crea un archivo .env con tus claves API (puedes copiar el archivo .env.sample ):

cp .env.sample .env

Luego edita el archivo .env para agregar tus claves API (o expórtalas en tu shell):

OPENAI_API_KEY=your_openai_api_key_here ANTHROPIC_API_KEY=your_anthropic_api_key_here GEMINI_API_KEY=your_gemini_api_key_here GROQ_API_KEY=your_groq_api_key_here DEEPSEEK_API_KEY=your_deepseek_api_key_here OLLAMA_HOST=http://localhost:11434

Instalación de Claude Code

En todos estos ejemplos, reemplace el directorio con la ruta al directorio donde se solicita el mensaje.

Modelos predeterminados establecidos en openai:o3:high , openai:o4-mini:high , anthropic:claude-3-7-sonnet-20250219:4k , gemini:gemini-2.5-pro-preview-03-25 y gemini:gemini-2.5-flash-preview-04-17 .

Si usa Claude Code directamente desde el repositorio, puede ver en el archivo .mcp.json que configuramos los modelos predeterminados en...

{ "mcpServers": { "just-prompt": { "type": "stdio", "command": "uv", "args": [ "--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17" ], "env": {} } } }

El parámetro --default-models define los modelos que se usarán cuando no se proporcione ninguno explícitamente a los endpoints de la API. El primer modelo de la lista también se utiliza para corregir el nombre del modelo cuando sea necesario. Puede ser una lista de modelos separados por comas.

Al iniciar el servidor, este comprobará automáticamente qué claves API están disponibles en su entorno y le informará qué proveedores puede usar. Si falta una clave, el proveedor aparecerá como no disponible, pero el servidor se iniciará y podrá usarse con los proveedores disponibles.

Uso mcp add-json

Copia esto y pégalo en el código de Claude, PERO no lo ejecutes hasta que copies el json.

claude mcp add just-prompt "$(pbpaste)"

JSON para copiar

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt"] }

Con un modelo predeterminado personalizado establecido en openai:gpt-4o .

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:gpt-4o"] }

Con múltiples modelos predeterminados:

{ "command": "uv", "args": ["--directory", ".", "run", "just-prompt", "--default-models", "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17"] }

Uso de mcp add con el alcance del proyecto

# With default models claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt # With custom default model claude mcp add just-prompt -s project \ -- \ uv --directory . \ run just-prompt --default-models "openai:gpt-4o" # With multiple default models claude mcp add just-prompt -s user \ -- \ uv --directory . \ run just-prompt --default-models "openai:o3:high,openai:o4-mini:high,anthropic:claude-3-7-sonnet-20250219:4k,gemini:gemini-2.5-pro-preview-03-25,gemini:gemini-2.5-flash-preview-04-17:4k"

mcp remove

Claude MCP elimina just-prompt

Ejecución de pruebas

uv run pytest

Estructura del código base

. ├── ai_docs/ # Documentation for AI model details │ ├── extending_thinking_sonny.md │ ├── llm_providers_details.xml │ ├── openai-reasoning-effort.md │ └── pocket-pick-mcp-server-example.xml ├── example_outputs/ # Example outputs from different models ├── list_models.py # Script to list available LLM models ├── prompts/ # Example prompt files ├── pyproject.toml # Python project configuration ├── specs/ # Project specifications │ ├── init-just-prompt.md │ ├── new-tool-llm-as-a-ceo.md │ └── oai-reasoning-levels.md ├── src/ # Source code directory │ └── just_prompt/ │ ├── __init__.py │ ├── __main__.py │ ├── atoms/ # Core components │ │ ├── llm_providers/ # Individual provider implementations │ │ │ ├── anthropic.py │ │ │ ├── deepseek.py │ │ │ ├── gemini.py │ │ │ ├── groq.py │ │ │ ├── ollama.py │ │ │ └── openai.py │ │ └── shared/ # Shared utilities and data types │ │ ├── data_types.py │ │ ├── model_router.py │ │ ├── utils.py │ │ └── validator.py │ ├── molecules/ # Higher-level functionality │ │ ├── ceo_and_board_prompt.py │ │ ├── list_models.py │ │ ├── list_providers.py │ │ ├── prompt.py │ │ ├── prompt_from_file.py │ │ └── prompt_from_file_to_file.py │ ├── server.py # MCP server implementation │ └── tests/ # Test directory │ ├── atoms/ # Tests for atoms │ │ ├── llm_providers/ │ │ └── shared/ │ └── molecules/ # Tests for molecules │ ├── test_ceo_and_board_prompt.py │ ├── test_list_models.py │ ├── test_list_providers.py │ ├── test_prompt.py │ ├── test_prompt_from_file.py │ └── test_prompt_from_file_to_file.py └── ultra_diff_review/ # Diff review outputs

Preparación del contexto

LEA README.md, pyproject.toml, luego ejecute git ls-files y 'eza --git-ignore --tree' para comprender el contexto del proyecto.

Esfuerzo de razonamiento con OpenAI o-Series

Para los modelos de razonamiento de la serie o de OpenAI ( o4-mini , o3-mini , o3 ), puede controlar cuánto razonamiento interno realiza el modelo antes de producir una respuesta visible.

Agregue uno de los siguientes sufijos al nombre del modelo (después del prefijo del proveedor ):

  • :low – razonamiento interno mínimo (más rápido, más barato)
  • :medium – equilibrado (predeterminado si se omite)
  • :high – razonamiento exhaustivo (más lento, más tokens)

Ejemplos:

  • openai:o4-mini:low
  • o:o4-mini:high

Cuando hay un sufijo de razonamiento, just-prompt cambia automáticamente a la API de Respuestas de OpenAI (si está disponible) y establece el parámetro reasoning.effort correspondiente. Si el SDK de OpenAI instalado es anterior, recurre al punto de conexión de Finalizaciones de Chat e integra una instrucción interna del sistema para aproximar el nivel de esfuerzo solicitado.

Pensando en fichas con Claude

El modelo antrópico de Claude claude-3-7-sonnet-20250219 fomenta capacidades de pensamiento ampliadas mediante fichas de pensamiento. Esto le permite a Claude realizar procesos de pensamiento más profundos antes de responder.

Puedes habilitar tokens de pensamiento agregando un sufijo al nombre del modelo en este formato:

  • anthropic:claude-3-7-sonnet-20250219:1k - Usa 1024 fichas de pensamiento
  • anthropic:claude-3-7-sonnet-20250219:4k - Usa 4096 fichas de pensamiento
  • anthropic:claude-3-7-sonnet-20250219:8000 - Usa 8000 fichas de pensamiento

Notas:

  • Los tokens de pensamiento solo son compatibles con el modelo claude-3-7-sonnet-20250219
  • Los presupuestos de tokens de pensamiento válido varían de 1024 a 16000
  • Los valores fuera de este rango se ajustarán automáticamente para estar dentro del rango.
  • Puede especificar el presupuesto con notación k (1k, 4k, etc.) o con números exactos (1024, 4096, etc.)

Pensando en el presupuesto con Géminis

El modelo gemini-2.5-flash-preview-04-17 de Google Gemini admite capacidades de pensamiento ampliadas mediante el presupuesto de pensamiento. Esto permite a Gemini realizar un razonamiento más exhaustivo antes de proporcionar una respuesta.

Puede habilitar el presupuesto de pensamiento agregando un sufijo al nombre del modelo en este formato:

  • gemini:gemini-2.5-flash-preview-04-17:1k - Usar un presupuesto de 1024
  • gemini:gemini-2.5-flash-preview-04-17:4k - Usa el presupuesto de pensamiento 4096
  • gemini:gemini-2.5-flash-preview-04-17:8000 - Usar el presupuesto de pensamiento 8000

Notas:

  • El presupuesto de pensamiento solo es compatible con el modelo gemini-2.5-flash-preview-04-17
  • Rango presupuestario de pensamiento válido de 0 a 24576
  • Los valores fuera de este rango se ajustarán automáticamente para estar dentro del rango.
  • Puede especificar el presupuesto con notación k (1k, 4k, etc.) o con números exactos (1024, 4096, etc.)

Recursos

Domina la codificación de IA

Aprenda a codificar con IA con los principios fundamentales de codificación de IA

Siga el canal de YouTube IndyDevDan para obtener más consejos y trucos de codificación de IA.

You must be authenticated.

A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un servidor MCP liviano que proporciona una interfaz unificada para varios proveedores de LLM, incluidos OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama.

  1. Herramientas
    1. Prefijos de proveedor
      1. Características
        1. Instalación
          1. Variables de entorno
        2. Instalación de Claude Code
          1. Uso mcp add-json
          2. Uso de mcp add con el alcance del proyecto
        3. mcp remove
          1. Ejecución de pruebas
            1. Estructura del código base
              1. Preparación del contexto
                1. Esfuerzo de razonamiento con OpenAI o-Series
                  1. Pensando en fichas con Claude
                    1. Pensando en el presupuesto con Géminis
                      1. Recursos
                      2. Domina la codificación de IA

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                      Last updated -
                      1
                      Python
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that provides LLMs access to other LLMs
                      Last updated -
                      4
                      14
                      12
                      JavaScript
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
                      Last updated -
                      4
                      4
                      1
                      TypeScript
                      MIT License
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.
                      Last updated -
                      94
                      TypeScript
                      MIT License
                      • Linux
                      • Apple

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/disler/just-prompt'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server