Skip to main content
Glama
phil65

mcp-server-llmling

mcp-server-llmling

PyPI 라이센스 패키지 상태 일일 다운로드 주간 다운로드 월별 다운로드 배포 형식 휠 가용성 파이썬 버전구현 출시 Github 기여자 Github 토론 Github 포크 Github 문제 Github 문제 Github 워처Github 스타 Github 저장소 크기 Github 마지막 커밋 Github 릴리스 날짜 Github 언어 수 이번 주 Github 커밋 이번 달 Github 커밋 올해 Github 커밋 패키지 상태 코드 스타일: 검정색 파이업

설명서를 읽어보세요!

LLMling 서버 매뉴얼

개요

mcp-server-llmling은 LLM 애플리케이션을 위한 YAML 기반 구성 시스템을 제공하는 MCP(Machine Chat Protocol)용 서버입니다.

백엔드인 LLMLing 은 LLM 애플리케이션을 위한 YAML 기반 구성 시스템을 제공합니다. YAML 파일에 정의된 콘텐츠를 제공하는 사용자 지정 MCP 서버를 설정할 수 있습니다.

  • 정적 선언 : YAML로 LLM 환경을 정의합니다. 코드는 필요하지 않습니다.

  • MCP 프로토콜 : 표준화된 LLM 상호 작용을 위해 MCP(Machine Chat Protocol) 기반으로 구축됨

  • 구성 요소 유형 :

    • 리소스 : 콘텐츠 제공자(파일, 텍스트, CLI 출력 등)

    • 프롬프트 : 인수가 있는 메시지 템플릿

    • 도구 : LLM에서 호출 가능한 Python 함수

YAML 구성은 LLM에 다음을 제공하는 완전한 환경을 만듭니다.

  • 리소스를 통한 콘텐츠 접근

  • 일관된 상호작용을 위한 구조화된 프롬프트

  • 기능 확장을 위한 도구

Related MCP server: @lex-tools/codebase-context-dumper

주요 특징

1. 자원 관리

  • 다양한 유형의 리소스를 로드하고 관리합니다.

    • 텍스트 파일( PathResource )

    • 원시 텍스트 콘텐츠( TextResource )

    • CLI 명령 출력( CLIResource )

    • Python 소스 코드( SourceResource )

    • Python 호출 가능 결과( CallableResource )

    • 이미지( ImageResource )

  • 리소스 감시/핫 리로드 지원

  • 리소스 처리 파이프라인

  • URI 기반 리소스 액세스

2. 도구 시스템

  • LLM 도구로 Python 함수를 등록하고 실행합니다.

  • OpenAPI 기반 도구 지원

  • 진입점 기반 도구 검색

  • 도구 검증 및 매개변수 확인

  • 구조화된 도구 응답

3. 신속한 관리

  • 템플릿 지원이 포함된 정적 프롬프트

  • Python 함수의 동적 프롬프트

  • 파일 기반 프롬프트

  • 즉각적인 인수 검증

  • 신속한 주장을 위한 완성 제안

4. 다양한 운송 옵션

  • Stdio 기반 통신(기본값)

  • 웹 클라이언트를 위한 SSE(Server-Sent Events)/스트리밍 가능 HTTP

  • 사용자 정의 전송 구현 지원

용법

Zed Editor와 함께

settings.json 에 LLMLing을 컨텍스트 서버로 추가합니다.

지엑스피1

클로드 데스크톱과 함께

claude_desktop_config.json 에서 LLMLing을 구성하세요:

{
  "mcpServers": {
    "llmling": {
      "command": "uvx",
      "args": [
        "mcp-server-llmling",
        "start",
        "path/to/your/config.yml"
      ],
      "env": {}
    }
  }
}

수동 서버 시작

명령줄에서 직접 서버를 시작합니다.

# Latest version
uvx mcp-server-llmling@latest

1. 프로그래밍 방식 사용

from llmling import RuntimeConfig
from mcp_server_llmling import LLMLingServer

async def main() -> None:
    async with RuntimeConfig.open(config) as runtime:
        server = LLMLingServer(runtime, enable_injection=True)
        await server.start()

asyncio.run(main())

2. 사용자 지정 전송 사용

from llmling import RuntimeConfig
from mcp_server_llmling import LLMLingServer

async def main() -> None:
    async with RuntimeConfig.open(config) as runtime:
        server = LLMLingServer(
            config,
            transport="sse",
            transport_options={
                "host": "localhost",
                "port": 3001,
                "cors_origins": ["http://localhost:3000"]
            }
        )
        await server.start()

asyncio.run(main())

3. 리소스 구성

resources:
  python_code:
    type: path
    path: "./src/**/*.py"
    watch:
      enabled: true
      patterns:
        - "*.py"
        - "!**/__pycache__/**"

  api_docs:
    type: text
    content: |
      API Documentation
      ================
      ...

4. 도구 구성

tools:
  analyze_code:
    import_path: "mymodule.tools.analyze_code"
    description: "Analyze Python code structure"

toolsets:
  api:
    type: openapi
    spec: "https://api.example.com/openapi.json"
TIP

OpenAPI 스키마의 경우,Redocly CLI를 설치하여 LLMLing과 함께 사용하기 전에 OpenAPI 사양을 번들링하고 확인할 수 있습니다. 이렇게 하면 스키마 참조가 올바르게 확인되고 사양이 올바른 형식으로 지정됩니다. redocly가 설치되어 있으면 자동으로 사용됩니다.

서버 구성

서버는 다음 섹션이 포함된 YAML 파일을 통해 구성됩니다.

global_settings:
  timeout: 30
  max_retries: 3
  log_level: "INFO"
  requirements: []
  pip_index_url: null
  extra_paths: []

resources:
  # Resource definitions...

tools:
  # Tool definitions...

toolsets:
  # Toolset definitions...

prompts:
  # Prompt definitions...

MCP 프로토콜

서버는 다음을 지원하는 MCP 프로토콜을 구현합니다.

  1. 자원 운영

    • 사용 가능한 리소스 나열

    • 리소스 콘텐츠 읽기

    • 리소스 변경 사항을 확인하세요

  2. 도구 작업

    • 사용 가능한 도구 나열

    • 매개변수를 사용하여 도구 실행

    • 도구 스키마 가져오기

  3. 신속한 작업

    • 사용 가능한 프롬프트 나열

    • 형식화된 프롬프트 받기

    • 즉각적인 인수에 대한 완성을 얻으세요

  4. 알림

    • 리소스 변경

    • 도구/프롬프트 목록 업데이트

    • 진행 상황 업데이트

    • 로그 메시지

-
security - not tested
A
license - permissive license
-
quality - not tested

Appeared in Searches

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server