Just Prompt: un servidor MCP liviano para proveedores de LLM
just-prompt
es un servidor de Protocolo de Control de Modelos (MCP) que proporciona una interfaz unificada para varios proveedores de Modelos de Lenguaje Grandes (LLM), como OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama. Vea cómo usamos la herramienta ceo_and_board
para facilitar la toma de decisiones difíciles con o3 aquí .
Herramientas
Las siguientes herramientas MCP están disponibles en el servidor:
prompt
: envía un aviso a varios modelos LLM- Parámetros:
text
: El texto del mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
- Parámetros:
prompt_from_file
: envía un mensaje desde un archivo a varios modelos LLM- Parámetros:
file
: Ruta al archivo que contiene el mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.
- Parámetros:
prompt_from_file_to_file
: envía una solicitud desde un archivo a varios modelos LLM y guarda las respuestas como archivos Markdown- Parámetros:
file
: Ruta al archivo que contiene el mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor. Si no se proporciona, se utilizan los modelos predeterminados.output_dir
(predeterminado: "."): Directorio donde guardar los archivos de Markdown de respuesta
- Parámetros:
ceo_and_board
: envía un mensaje a varios modelos de 'miembros de la junta' y haz que un modelo 'CEO' tome una decisión según sus respuestas- Parámetros:
file
: Ruta al archivo que contiene el mensajemodels_prefixed_by_provider
(opcional): Lista de modelos con prefijos de proveedor que actúan como miembros de la junta. Si no se proporciona, se utilizan los modelos predeterminados.output_dir
(predeterminado: "."): Directorio para guardar los archivos de respuesta y la decisión del CEOceo_model
(predeterminado: "openai:o3"): Modelo a utilizar para la decisión del CEO en formato "proveedor:modelo"
- Parámetros:
list_providers
: enumera todos los proveedores de LLM disponibles- Parámetros: Ninguno
list_models
: enumera todos los modelos disponibles para un proveedor LLM específico- Parámetros:
provider
: Proveedor para listar modelos (por ejemplo, 'openai' o 'o')
- Parámetros:
Prefijos de proveedor
Cada modelo debe tener como prefijo el nombre del proveedor.
Utilice el nombre corto para una referencia más rápida
o
oopenai
: OpenAIo:gpt-4o-mini
openai:gpt-4o-mini
a
oanthropic
: Antrópicoa:claude-3-5-haiku
anthropic:claude-3-5-haiku
g
ogemini
: Google Geminig:gemini-2.5-pro-exp-03-25
gemini:gemini-2.5-pro-exp-03-25
q
ogroq
: Groqq:llama-3.1-70b-versatile
groq:llama-3.1-70b-versatile
d
odeepseek
: DeepSeekd:deepseek-coder
deepseek:deepseek-coder
l
oollama
: Ollamal:llama3.1
ollama:llama3.1
Características
- API unificada para múltiples proveedores de LLM
- Soporte para indicaciones de texto desde cadenas o archivos
- Ejecutar múltiples modelos en paralelo
- Corrección automática del nombre del modelo utilizando el primer modelo en la lista
--default-models
- Capacidad de guardar respuestas en archivos
- Listado sencillo de proveedores y modelos disponibles
Instalación
Variables de entorno
Crea un archivo .env
con tus claves API (puedes copiar el archivo .env.sample
):
Luego edita el archivo .env
para agregar tus claves API (o expórtalas en tu shell):
Instalación de Claude Code
En todos estos ejemplos, reemplace el directorio con la ruta al directorio donde se solicita el mensaje.
Modelos predeterminados establecidos en openai:o3:high
, openai:o4-mini:high
, anthropic:claude-3-7-sonnet-20250219:4k
, gemini:gemini-2.5-pro-preview-03-25
y gemini:gemini-2.5-flash-preview-04-17
.
Si usa Claude Code directamente desde el repositorio, puede ver en el archivo .mcp.json que configuramos los modelos predeterminados en...
El parámetro --default-models
define los modelos que se usarán cuando no se proporcione ninguno explícitamente a los endpoints de la API. El primer modelo de la lista también se utiliza para corregir el nombre del modelo cuando sea necesario. Puede ser una lista de modelos separados por comas.
Al iniciar el servidor, este comprobará automáticamente qué claves API están disponibles en su entorno y le informará qué proveedores puede usar. Si falta una clave, el proveedor aparecerá como no disponible, pero el servidor se iniciará y podrá usarse con los proveedores disponibles.
Uso mcp add-json
Copia esto y pégalo en el código de Claude, PERO no lo ejecutes hasta que copies el json.
JSON para copiar
Con un modelo predeterminado personalizado establecido en openai:gpt-4o
.
Con múltiples modelos predeterminados:
Uso de mcp add
con el alcance del proyecto
mcp remove
Claude MCP elimina just-prompt
Ejecución de pruebas
Estructura del código base
Preparación del contexto
LEA README.md, pyproject.toml, luego ejecute git ls-files y 'eza --git-ignore --tree' para comprender el contexto del proyecto.
Esfuerzo de razonamiento con OpenAI o-Series
Para los modelos de razonamiento de la serie o de OpenAI ( o4-mini
, o3-mini
, o3
), puede controlar cuánto razonamiento interno realiza el modelo antes de producir una respuesta visible.
Agregue uno de los siguientes sufijos al nombre del modelo (después del prefijo del proveedor ):
:low
– razonamiento interno mínimo (más rápido, más barato):medium
– equilibrado (predeterminado si se omite):high
– razonamiento exhaustivo (más lento, más tokens)
Ejemplos:
openai:o4-mini:low
o:o4-mini:high
Cuando hay un sufijo de razonamiento, just-prompt cambia automáticamente a la API de Respuestas de OpenAI (si está disponible) y establece el parámetro reasoning.effort
correspondiente. Si el SDK de OpenAI instalado es anterior, recurre al punto de conexión de Finalizaciones de Chat e integra una instrucción interna del sistema para aproximar el nivel de esfuerzo solicitado.
Pensando en fichas con Claude
El modelo antrópico de Claude claude-3-7-sonnet-20250219
fomenta capacidades de pensamiento ampliadas mediante fichas de pensamiento. Esto le permite a Claude realizar procesos de pensamiento más profundos antes de responder.
Puedes habilitar tokens de pensamiento agregando un sufijo al nombre del modelo en este formato:
anthropic:claude-3-7-sonnet-20250219:1k
- Usa 1024 fichas de pensamientoanthropic:claude-3-7-sonnet-20250219:4k
- Usa 4096 fichas de pensamientoanthropic:claude-3-7-sonnet-20250219:8000
- Usa 8000 fichas de pensamiento
Notas:
- Los tokens de pensamiento solo son compatibles con el modelo
claude-3-7-sonnet-20250219
- Los presupuestos de tokens de pensamiento válido varían de 1024 a 16000
- Los valores fuera de este rango se ajustarán automáticamente para estar dentro del rango.
- Puede especificar el presupuesto con notación k (1k, 4k, etc.) o con números exactos (1024, 4096, etc.)
Pensando en el presupuesto con Géminis
El modelo gemini-2.5-flash-preview-04-17
de Google Gemini admite capacidades de pensamiento ampliadas mediante el presupuesto de pensamiento. Esto permite a Gemini realizar un razonamiento más exhaustivo antes de proporcionar una respuesta.
Puede habilitar el presupuesto de pensamiento agregando un sufijo al nombre del modelo en este formato:
gemini:gemini-2.5-flash-preview-04-17:1k
- Usar un presupuesto de 1024gemini:gemini-2.5-flash-preview-04-17:4k
- Usa el presupuesto de pensamiento 4096gemini:gemini-2.5-flash-preview-04-17:8000
- Usar el presupuesto de pensamiento 8000
Notas:
- El presupuesto de pensamiento solo es compatible con el modelo
gemini-2.5-flash-preview-04-17
- Rango presupuestario de pensamiento válido de 0 a 24576
- Los valores fuera de este rango se ajustarán automáticamente para estar dentro del rango.
- Puede especificar el presupuesto con notación k (1k, 4k, etc.) o con números exactos (1024, 4096, etc.)
Recursos
- https://docs.anthropic.com/es/api/models-list?q=list+models
- https://github.com/googleapis/python-genai
- https://platform.openai.com/docs/api-reference/models/list
- https://api-docs.deepseek.com/api/list-models
- https://github.com/ollama/ollama-python
- https://github.com/openai/openai-python
Domina la codificación de IA
Aprenda a codificar con IA con los principios fundamentales de codificación de IA
Siga el canal de YouTube IndyDevDan para obtener más consejos y trucos de codificación de IA.
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Un servidor MCP liviano que proporciona una interfaz unificada para varios proveedores de LLM, incluidos OpenAI, Anthropic, Google Gemini, Groq, DeepSeek y Ollama.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- AsecurityAlicenseAqualityAn MCP server that provides LLMs access to other LLMsLast updated -41412JavaScriptMIT License
- AsecurityAlicenseAqualityAn MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.Last updated -441TypeScriptMIT License
- -securityAlicense-qualityA lightweight, fast MCP server that provides onchain capabilities for the LLMs and Agents.Last updated -94TypeScriptMIT License