Skip to main content
Glama

MCP Server for langfuse

by z9905080

Langfuse용 MCP 서버

Langfuse 작업 공간에 AI 어시스턴트를 통합하기 위한 MCP(Model Context Protocol) 서버 구현입니다.

개요

이 패키지는 AI 어시스턴트가 Langfuse 작업 공간과 상호 작용할 수 있도록 하는 MCP 서버를 제공합니다. 이를 통해 AI 모델은 다음과 같은 작업을 수행할 수 있습니다.

  • 시간 범위별 LLM 메트릭 쿼리

설치

지엑스피1

npm에서 shouting-mcp-langfuse 패키지를 찾을 수 있습니다.

필수 조건

서버를 사용하기 전에 Langfuse 프로젝트를 생성하고 프로젝트의 공개 키와 개인 키를 확보해야 합니다. 이 키는 Langfuse 대시보드에서 확인할 수 있습니다.

  1. Langfuse 프로젝트 설정
  2. 공개 키와 개인 키를 가져오다
  3. 환경 변수를 설정하다

구성

서버에는 다음과 같은 환경 변수가 필요합니다.

  • LANGFUSE_DOMAIN : Langfuse 도메인(기본값: https://api.langfuse.com )
  • LANGFUSE_PUBLIC_KEY : Langfuse 프로젝트 공개 키
  • LANGFUSE_PRIVATE_KEY : Langfuse 프로젝트 개인 키

용법

CLI 도구로 실행

# Set environment variables export LANGFUSE_DOMAIN="https://api.langfuse.com" export LANGFUSE_PUBLIC_KEY="your-public-key" export LANGFUSE_PRIVATE_KEY="your-private # Run the server mcp-server-langfuse

코드에서 사용

import { Server } from "@modelcontextprotocol/sdk/server/index.js"; import { langfuseClient } from "shouting-mcp-langfuse"; // Initialize the server and client const server = new Server({...}); const langfuseClient = new LangfuseClient(process.env.LANGFUSE_DOMAIN, process.env.LANGFUSE_PUBLIC_KEY, process.env.LANGFUSE_PRIVATE_KEY); // Register your custom handlers // ...

사용 가능한 도구

서버는 다음과 같은 Langfuse 통합 도구를 제공합니다.

  • getLLMMetricsByTimeRange : 시간 범위별 LLM 메트릭 가져오기

특허

아이에스씨

작가

shouting.hsiao@gmail.com

저장소

https://github.com/z9905080/mcp-langfuse

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

AI 어시스턴트를 Langfuse 작업 공간과 통합하여 모델이 시간 범위별로 LLM 메트릭을 쿼리할 수 있도록 하는 MCP 서버 구현입니다.

  1. 개요
    1. 설치
      1. 필수 조건
        1. 구성
          1. 용법
            1. CLI 도구로 실행
            2. 코드에서 사용
          2. 사용 가능한 도구
            1. 특허
              1. 작가
                1. 저장소

                  Related MCP Servers

                  • -
                    security
                    F
                    license
                    -
                    quality
                    A production-ready MCP server built with FastAPI, providing an enhanced tool registry for creating, managing, and documenting AI tools for Large Language Models (LLMs).
                    Last updated -
                    13
                    Python
                  • -
                    security
                    A
                    license
                    -
                    quality
                    An MCP server that allows AI assistants to interact with Foundry datasets, ontology objects, and functions through natural language queries and commands.
                    Last updated -
                    2
                    Python
                    MIT License
                  • A
                    security
                    F
                    license
                    A
                    quality
                    An MCP server that supercharges AI assistants with powerful tools for software development, enabling research, planning, code generation, and project scaffolding through natural language interaction.
                    Last updated -
                    11
                    40
                    TypeScript
                    • Linux
                    • Apple
                  • A
                    security
                    A
                    license
                    A
                    quality
                    An MCP server that enables AI assistants to interact with the Notion API, allowing them to search, read, comment on, and create content in Notion workspaces through natural language commands.
                    Last updated -
                    19
                    6,837
                    1,995
                    TypeScript
                    MIT License
                    • Apple

                  View all related MCP servers

                  MCP directory API

                  We provide all the information about MCP servers via our MCP API.

                  curl -X GET 'https://glama.ai/api/mcp/v1/servers/z9905080/mcp-langfuse'

                  If you have feedback or need assistance with the MCP directory API, please join our Discord server