Integrations
Enables access to Google Gemini models including Gemini 2.5 Pro, allowing prompt processing through a standardized interface.
Allows interaction with locally-hosted Ollama models through a consistent API, supporting models like Llama 3.1.
Provides access to OpenAI's models including GPT-4o and GPT-4o-mini through a unified interface for prompt processing.
Just Prompt: un servidor MCP liviano para proveedores de LLM
just-prompt
es un servidor de Protocolo de Control de Modelos (MCP) que proporciona una interfaz unificada para varios proveedores de Modelos de Lenguaje Grandes (LLM), incluidos OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama.
Herramientas
Las siguientes herramientas MCP están disponibles en el servidor:
prompt
: envía un aviso a varios modelos LLM- Parámetros:
text
: El texto del mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
- Parámetros:
prompt_from_file
: envía un mensaje desde un archivo a varios modelos LLM- Parámetros:
file
: Ruta al archivo que contiene el mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
- Parámetros:
prompt_from_file_to_file
: envía una solicitud desde un archivo a varios modelos LLM y guarda las respuestas como archivos Markdown- Parámetros:
file
: Ruta al archivo que contiene el mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.output_dir
(predeterminado: "."): Directorio donde guardar los archivos de Markdown de respuesta
- Parámetros:
list_providers
: enumera todos los proveedores de LLM disponibles- Parámetros: Ninguno
list_models
: enumera todos los modelos disponibles para un proveedor LLM específico- Parámetros:
provider
: Proveedor para listar modelos (por ejemplo, 'openai' o 'o')
- Parámetros:
Prefijos de proveedor
Cada modelo debe tener como prefijo el nombre del proveedor.
Utilice el nombre corto para una referencia más rápida
o
oopenai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
oanthropic
: Antrópicoa:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
ogemini
: Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini:gemini-2.5-pro-exp-03-25
q
ogroq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
odeepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
oollama
: Ollamal:llama3.1
ollama:llama3.1
Características
- API unificada para múltiples proveedores de LLM
- Soporte para indicaciones de texto desde cadenas o archivos
- Ejecutar múltiples modelos en paralelo
- Corrección automática del nombre del modelo utilizando el primer modelo en la lista
--default-models
- Capacidad de guardar respuestas en archivos
- Listado sencillo de proveedores y modelos disponibles
Instalación
Variables de entorno
Crea un archivo .env
con tus claves API (puedes copiar el archivo .env.sample
):
Luego edita el archivo .env
para agregar tus claves API (o expórtalas en tu shell):
Instalación de Claude Code
Modelo predeterminado establecido en anthropic:claude-3-7-sonnet-20250219
.
Si usa Claude Code directamente desde el repositorio, puede ver en el archivo .mcp.json que configuramos los modelos predeterminados en...
El parámetro --default-models
define los modelos que se usarán cuando no se proporcione ninguno explícitamente a los endpoints de la API. El primer modelo de la lista también se utiliza para corregir el nombre del modelo cuando sea necesario. Puede ser una lista de modelos separados por comas.
Al iniciar el servidor, este comprobará automáticamente qué claves API están disponibles en su entorno y le informará qué proveedores puede usar. Si falta una clave, el proveedor aparecerá como no disponible, pero el servidor se iniciará y podrá usarse con los proveedores disponibles.
Uso mcp add-json
Copia esto y pégalo en el código de Claude, PERO no lo ejecutes hasta que copies el json.
JSON para copiar
Con un modelo predeterminado personalizado establecido en openai:gpt-4o
.
Con múltiples modelos predeterminados:
Uso de mcp add
con el alcance del proyecto
mcp remove
Claude MCP elimina just-prompt
Ejecución de pruebas
Estructura del código base
Preparación del contexto
LEA README.md, luego ejecute git ls-files y 'eza --git-ignore --tree' para comprender el contexto del proyecto.
Pensando en fichas con Claude
El modelo antrópico de Claude claude-3-7-sonnet-20250219
fomenta capacidades de pensamiento ampliadas mediante fichas de pensamiento. Esto le permite a Claude realizar procesos de pensamiento más profundos antes de responder.
Puedes habilitar tokens de pensamiento agregando un sufijo al nombre del modelo en este formato:
anthropic:claude-3-7-sonnet-20250219:1k
- Usa 1024 fichas de pensamientoanthropic:claude-3-7-sonnet-20250219:4k
- Usa 4096 fichas de pensamientoanthropic:claude-3-7-sonnet-20250219:8000
- Usa 8000 fichas de pensamiento
Ejemplo de uso:
Notas:
- Los tokens de pensamiento solo son compatibles con el modelo
claude-3-7-sonnet-20250219
- Los presupuestos de tokens de pensamiento válido varían de 1024 a 16000
- Los valores fuera de este rango se ajustarán automáticamente para estar dentro del rango.
- Puede especificar el presupuesto con notación k (1k, 4k, etc.) o con números exactos (1024, 4096, etc.)
Recursos
This server cannot be installed
Un servidor MCP liviano que proporciona una interfaz unificada para varios proveedores de LLM, incluidos OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama.