Integrations
Probador de indicaciones MCP
Un servidor MCP simple que permite a los agentes probar los mensajes LLM con diferentes proveedores.
Características
- Indicaciones de prueba con OpenAI y modelos antrópicos
- Configurar indicaciones del sistema, indicaciones del usuario y otros parámetros
- Obtener respuestas formateadas o mensajes de error
- Configuración sencilla del entorno con soporte para archivos .env
Instalación
Configuración de la clave API
El servidor requiere claves API para los proveedores que desea utilizar. Puede configurarlas de dos maneras:
Opción 1: Variables de entorno
Establezca las siguientes variables de entorno:
OPENAI_API_KEY
: su clave API de OpenAIANTHROPIC_API_KEY
- Su clave API antrópica
Opción 2: Archivo .env (recomendado)
- Cree un archivo llamado
.env
en el directorio de su proyecto o directorio de inicio - Agregue sus claves API en el siguiente formato:
- El servidor detectará y cargará automáticamente estas claves.
Para mayor comodidad, se incluye una plantilla de muestra como .env.example
.
Uso
Inicie el servidor utilizando stdio (predeterminado) o el transporte SSE:
Herramientas disponibles
El servidor expone las siguientes herramientas para agentes habilitados para MCP:
1. lista_de_proveedores
Recupera los proveedores LLM disponibles y sus modelos predeterminados.
Parámetros:
- No se requiere ninguno
Ejemplo de respuesta:
2. comparación de pruebas
Compara múltiples indicaciones una al lado de la otra, lo que le permite probar diferentes proveedores, modelos y parámetros simultáneamente.
Parámetros:
comparisons
(matriz): una lista de 1 a 4 configuraciones de comparación, cada una de las cuales contiene:provider
(cadena): el proveedor LLM que se utilizará ("openai" o "anthropic")model
(cadena): El nombre del modelosystem_prompt
(cadena): El mensaje del sistema (instrucciones para el modelo)user_prompt
(cadena): El mensaje/mensaje del usuariotemperature
(número, opcional): controla la aleatoriedadmax_tokens
(entero, opcional): Número máximo de tokens a generartop_p
(número, opcional): controla la diversidad mediante el muestreo del núcleo
Ejemplo de uso:
3. prueba_conversación_multiturno
Administra conversaciones de múltiples turnos con proveedores de LLM, lo que le permite crear y mantener conversaciones con estado.
Modos:
start
: inicia una nueva conversacióncontinue
: continúa una conversación existenteget
: recupera el historial de conversacioneslist
: enumera todas las conversaciones activasclose
: cierra una conversación
Parámetros:
mode
(cadena): Modo de operación ("inicio", "continuar", "obtener", "listar" o "cerrar")conversation_id
(cadena): ID único para la conversación (obligatorio para los modos continuar, obtener y cerrar)provider
(cadena): el proveedor LLM (obligatorio para el modo de inicio)model
(cadena): el nombre del modelo (obligatorio para el modo de inicio)system_prompt
(cadena): El indicador del sistema (necesario para el modo de inicio)user_prompt
(cadena): El mensaje del usuario (utilizado en los modos de inicio y continuación)temperature
(número, opcional): parámetro de temperatura para el modelomax_tokens
(entero, opcional): Máximo de tokens a generartop_p
(número, opcional): parámetro de muestreo top-p
Ejemplo de uso (para iniciar una conversación):
Ejemplo de uso (para continuar una conversación):
Ejemplo de uso para agentes
Al utilizar el cliente MCP, un agente puede utilizar las herramientas de la siguiente manera:
Integración del agente MCP
Para los agentes con MCP, la integración es sencilla. Cuando su agente necesite probar las indicaciones de LLM:
- Descubrimiento : el agente puede usar
list_providers
para descubrir los modelos disponibles y sus capacidades - Pruebas simples : para pruebas rápidas, utilice la herramienta
test_comparison
con una única configuración - Comparación : cuando el agente necesita evaluar diferentes indicaciones o modelos, puede usar
test_comparison
con múltiples configuraciones - Interacciones con estado : para conversaciones de múltiples turnos, el agente puede administrar una conversación utilizando la herramienta
test_multiturn_conversation
Esto permite a los agentes:
- Pruebe variantes de indicaciones para encontrar la redacción más eficaz
- Comparar diferentes modelos para tareas específicas
- Mantener el contexto en conversaciones de varios turnos
- Optimizar parámetros como la temperatura y max_tokens
- Seguimiento del uso y los costos de los tokens durante el desarrollo
Configuración
Puede configurar claves API y configuraciones de seguimiento opcionales mediante variables de entorno:
Claves API requeridas
OPENAI_API_KEY
: su clave API de OpenAIANTHROPIC_API_KEY
- Su clave API antrópica
Seguimiento de Langfuse opcional
El servidor admite Langfuse para el seguimiento y la observabilidad de las llamadas LLM. Estas configuraciones son opcionales:
LANGFUSE_SECRET_KEY
- Su clave secreta de LangfuseLANGFUSE_PUBLIC_KEY
- Su clave pública de LangfuseLANGFUSE_HOST
: URL de su instancia de Langfuse
Si no desea utilizar el seguimiento de Langfuse, simplemente deje esta configuración vacía.
This server cannot be installed
Un servidor MCP que permite a los agentes probar y comparar indicaciones LLM en modelos OpenAI y Anthropic, admitiendo pruebas individuales, comparaciones en paralelo y conversaciones de múltiples turnos.