langfuse 的 MCP 服务器
用于将 AI 助手与 Langfuse 工作区集成的模型上下文协议 (MCP) 服务器实现。
概述
此软件包提供了一个 MCP 服务器,使 AI 助手能够与 Langfuse 工作区交互。它允许 AI 模型执行以下操作:
- 按时间范围查询 LLM 指标
安装
Copy
您可以在 npm 上找到该软件包: shouting-mcp-langfuse
先决条件
在使用服务器之前,您需要创建一个 Langfuse 项目并获取项目的公钥和私钥。您可以在 Langfuse 仪表板中找到这些密钥。
- 建立一个 Langfuse 项目
- 获取公钥和私钥
- 设置环境变量
配置
服务器需要以下环境变量:
LANGFUSE_DOMAIN
:Langfuse 域名(默认值:https://api.langfuse.com
)LANGFUSE_PUBLIC_KEY
:你的 Langfuse 项目公钥LANGFUSE_PRIVATE_KEY
:您的 Langfuse 项目私钥
用法
作为 CLI 工具运行
Copy
在代码中使用
Copy
可用工具
服务器提供以下 langfuse 集成工具:
getLLMMetricsByTimeRange
:按时间范围获取 LLM 指标
执照
国际学习中心
作者
存储库
This server cannot be installed
MCP 服务器实现将 AI 助手与 Langfuse 工作区相集成,允许模型按时间范围查询 LLM 指标。