Servidor MCP para langfuse
Una implementación de servidor de Protocolo de Contexto de Modelo (MCP) para integrar asistentes de IA con espacios de trabajo de Langfuse.
Descripción general
Este paquete proporciona un servidor MCP que permite a los asistentes de IA interactuar con los espacios de trabajo de Langfuse. Permite a los modelos de IA:
- Consultar métricas LLM por rango de tiempo
Instalación
Puedes encontrar el paquete en npm: shouting-mcp-langfuse
Prerrequisitos
Antes de usar el servidor, debe crear un proyecto de Langfuse y obtener las claves pública y privada. Puede encontrar estas claves en el panel de control de Langfuse.
- configurar un proyecto Langfuse
- obtener las claves públicas y privadas
- establecer las variables de entorno
Configuración
El servidor requiere las siguientes variables de entorno:
LANGFUSE_DOMAIN
: El dominio Langfuse (predeterminado:https://api.langfuse.com
)LANGFUSE_PUBLIC_KEY
: La clave pública de su proyecto LangfuseLANGFUSE_PRIVATE_KEY
: Su clave privada del proyecto Langfuse
Uso
Ejecutarse como una herramienta CLI
Usando en tu código
Herramientas disponibles
El servidor proporciona las siguientes herramientas de integración de langfuse:
getLLMMetricsByTimeRange
: Obtener métricas LLM por rango de tiempo
Licencia
ISC
Autor
Repositorio
This server cannot be installed
Una implementación de servidor MCP que integra asistentes de IA con espacios de trabajo de Langfuse, lo que permite que los modelos consulten métricas de LLM por rango de tiempo.