mcp-server-llmling

by phil65
Verified

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Integrates with Codecov for tracking code coverage statistics and reporting.

  • Supports GitHub integration for repository management, tracking issues, pulls, stars and other GitHub project metrics.

  • Integrates with PyPI for package distribution and management information.

mcp-server-llmling

설명서를 읽어보세요!

LLMling 서버 매뉴얼

개요

mcp-server-llmling은 LLM 애플리케이션을 위한 YAML 기반 구성 시스템을 제공하는 MCP(Machine Chat Protocol)용 서버입니다.

백엔드인 LLMLing 은 LLM 애플리케이션을 위한 YAML 기반 구성 시스템을 제공합니다. YAML 파일에 정의된 콘텐츠를 제공하는 사용자 지정 MCP 서버를 설정할 수 있습니다.

  • 정적 선언 : YAML로 LLM 환경을 정의합니다. 코드는 필요하지 않습니다.
  • MCP 프로토콜 : 표준화된 LLM 상호 작용을 위해 MCP(Machine Chat Protocol) 기반으로 구축됨
  • 구성 요소 유형 :
    • 리소스 : 콘텐츠 제공자(파일, 텍스트, CLI 출력 등)
    • 프롬프트 : 인수가 있는 메시지 템플릿
    • 도구 : LLM에서 호출 가능한 Python 함수

YAML 구성은 LLM에 다음을 제공하는 완전한 환경을 만듭니다.

  • 리소스를 통한 콘텐츠 접근
  • 일관된 상호작용을 위한 구조화된 프롬프트
  • 기능 확장을 위한 도구

주요 특징

1. 자원 관리

  • 다양한 유형의 리소스를 로드하고 관리합니다.
    • 텍스트 파일( PathResource )
    • 원시 텍스트 콘텐츠( TextResource )
    • CLI 명령 출력( CLIResource )
    • Python 소스 코드( SourceResource )
    • Python 호출 가능 결과( CallableResource )
    • 이미지( ImageResource )
  • 리소스 감시/핫 리로드 지원
  • 리소스 처리 파이프라인
  • URI 기반 리소스 액세스

2. 도구 시스템

  • LLM 도구로 Python 함수를 등록하고 실행합니다.
  • OpenAPI 기반 도구 지원
  • 진입점 기반 도구 검색
  • 도구 검증 및 매개변수 확인
  • 구조화된 도구 응답

3. 신속한 관리

  • 템플릿 지원이 포함된 정적 프롬프트
  • Python 함수의 동적 프롬프트
  • 파일 기반 프롬프트
  • 즉각적인 인수 검증
  • 신속한 주장을 위한 완성 제안

4. 다양한 운송 옵션

  • Stdio 기반 통신(기본값)
  • 웹 클라이언트를 위한 SSE(Server-Sent Events)
  • 사용자 정의 전송 구현 지원

용법

Zed Editor와 함께

settings.json 에 LLMLing을 컨텍스트 서버로 추가합니다.

지엑스피1

Claude Desktop과 함께

claude_desktop_config.json 에서 LLMLing을 구성하세요:

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

수동 서버 시작

명령줄에서 직접 서버를 시작합니다.

# Latest version uvx mcp-server-llmling@latest

1. 프로그래밍 방식 사용

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. 사용자 지정 전송 사용

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 8000, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. 리소스 구성

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. 도구 구성

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json" namespace: "api"

서버 구성

서버는 다음 섹션이 포함된 YAML 파일을 통해 구성됩니다.

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

MCP 프로토콜

서버는 다음을 지원하는 MCP 프로토콜을 구현합니다.

  1. 자원 운영
    • 사용 가능한 리소스 나열
    • 리소스 콘텐츠 읽기
    • 리소스 변경 사항을 확인하세요
  2. 도구 작업
    • 사용 가능한 도구 나열
    • 매개변수를 사용하여 도구 실행
    • 도구 스키마 가져오기
  3. 신속한 작업
    • 사용 가능한 프롬프트 나열
    • 형식화된 프롬프트 받기
    • 즉각적인 인수에 대한 완성을 얻으세요
  4. 알림
    • 리소스 변경
    • 도구/프롬프트 목록 업데이트
    • 진행 상황 업데이트
    • 로그 메시지
-
security - not tested
A
license - permissive license
-
quality - not tested

LLM 애플리케이션을 위한 YAML 기반 구성 시스템을 제공하는 MCP(Machine Chat Protocol)용 서버로, 사용자는 코드를 작성하지 않고도 리소스, 도구 및 프롬프트를 정의할 수 있습니다.

  1. LLMling Server Manual
    1. Overview
    2. Key Features
    3. Usage
    4. Server Configuration
    5. MCP Protocol

Appeared in Searches

ID: 2mdjbbuzee