Skip to main content
Glama
phil65

mcp-server-llmling

mcp-server-llmling

PyPIライセンス パッケージのステータス 毎日のダウンロード数 週次ダウンロード数 月間ダウンロード数 配布形式 ホイールの可用性 Pythonバージョン 実装 リリース Github貢献者 Githubディスカッション Githubフォーク Githubの問題Githubの問題 Githubウォッチャー Githubスター Githubリポジトリのサイズ Githubの最後のコミット Githubリリース日 Githubの言語数 今週のGithubコミット 今月のGithubコミット 今年のGithubコミット パッケージのステータス コードスタイル: 黒 ピアップ

ドキュメントを読んでください!

LLMling サーバーマニュアル

概要

mcp-server-llmling は、LLM アプリケーションに YAML ベースの構成システムを提供する Machine Chat Protocol (MCP) のサーバーです。

バックエンドであるLLMLing は、LLMアプリケーション用のYAMLベースの設定システムを提供します。これにより、YAMLファイルで定義されたコンテンツを提供するカスタムMCPサーバーをセットアップできます。

  • 静的宣言: YAML で LLM の環境を定義します - コードは不要です

  • MCPプロトコル:標準化されたLLMインタラクションのためのマシンチャットプロトコル(MCP)上に構築されています

  • コンポーネントタイプ:

    • リソース: コンテンツ プロバイダー (ファイル、テキスト、CLI 出力など)

    • プロンプト: 引数付きのメッセージテンプレート

    • ツール: LLM から呼び出し可能な Python 関数

YAML 構成は、LLM に以下を提供する完全な環境を作成します。

  • リソース経由のコンテンツへのアクセス

  • 一貫したインタラクションのための構造化されたプロンプト

  • 機能を拡張するためのツール

Related MCP server: @lex-tools/codebase-context-dumper

主な特徴

1. リソース管理

  • さまざまな種類のリソースを読み込んで管理します。

    • テキストファイル( PathResource

    • 生のテキストコンテンツ ( TextResource )

    • CLIコマンド出力( CLIResource

    • Python ソースコード ( SourceResource )

    • Python 呼び出し可能な結果 ( CallableResource )

    • 画像 ( ImageResource )

  • リソース監視/ホットリロードのサポート

  • リソース処理パイプライン

  • URIベースのリソースアクセス

2. ツールシステム

  • Python関数をLLMツールとして登録して実行する

  • OpenAPIベースのツールのサポート

  • エントリポイントベースのツール検出

  • ツールの検証とパラメータのチェック

  • 構造化されたツール応答

3. 迅速な管理

  • テンプレートをサポートする静的プロンプト

  • Python関数からの動的プロンプト

  • ファイルベースのプロンプト

  • プロンプト引数の検証

  • プロンプト引数の補完提案

4. 複数の交通手段

  • stdioベースの通信(デフォルト)

  • サーバー送信イベント (SSE) / Web クライアント向けストリーミング可能な HTTP

  • カスタムトランスポート実装のサポート

使用法

Zedエディターを使用

LLMLing をコンテキスト サーバーとして設定しますsettings.jsonに以下を追加します。

{
  "context_servers": {
    "llmling": {
      "command": {
        "env": {},
        "label": "llmling",
        "path": "uvx",
        "args": [
          "mcp-server-llmling",
          "start",
          "path/to/your/config.yml"
        ]
      },
      "settings": {}
    }
  }
}

クロード・デスクトップ

claude_desktop_config.jsonで LLMLing を設定します。

{
  "mcpServers": {
    "llmling": {
      "command": "uvx",
      "args": [
        "mcp-server-llmling",
        "start",
        "path/to/your/config.yml"
      ],
      "env": {}
    }
  }
}

手動サーバー起動

コマンドラインから直接サーバーを起動します。

# Latest version
uvx mcp-server-llmling@latest

1. プログラムによる使用

from llmling import RuntimeConfig
from mcp_server_llmling import LLMLingServer

async def main() -> None:
    async with RuntimeConfig.open(config) as runtime:
        server = LLMLingServer(runtime, enable_injection=True)
        await server.start()

asyncio.run(main())

2. カスタムトランスポートの使用

from llmling import RuntimeConfig
from mcp_server_llmling import LLMLingServer

async def main() -> None:
    async with RuntimeConfig.open(config) as runtime:
        server = LLMLingServer(
            config,
            transport="sse",
            transport_options={
                "host": "localhost",
                "port": 3001,
                "cors_origins": ["http://localhost:3000"]
            }
        )
        await server.start()

asyncio.run(main())

3. リソース構成

resources:
  python_code:
    type: path
    path: "./src/**/*.py"
    watch:
      enabled: true
      patterns:
        - "*.py"
        - "!**/__pycache__/**"

  api_docs:
    type: text
    content: |
      API Documentation
      ================
      ...

4. ツールの設定

tools:
  analyze_code:
    import_path: "mymodule.tools.analyze_code"
    description: "Analyze Python code structure"

toolsets:
  api:
    type: openapi
    spec: "https://api.example.com/openapi.json"
TIP

OpenAPIスキーマの場合、LLMLingで使用する前に、Redocly CLIをインストールしてOpenAPI仕様をバンドルおよび解決できます。これにより、スキーマ参照が適切に解決され、仕様が正しくフォーマットされていることを確認できます。Redoclyがインストールされている場合は、自動的に使用されます。

サーバー構成

サーバーは、次のセクションを含む YAML ファイルを通じて構成されます。

global_settings:
  timeout: 30
  max_retries: 3
  log_level: "INFO"
  requirements: []
  pip_index_url: null
  extra_paths: []

resources:
  # Resource definitions...

tools:
  # Tool definitions...

toolsets:
  # Toolset definitions...

prompts:
  # Prompt definitions...

MCPプロトコル

サーバーは以下をサポートする MCP プロトコルを実装します。

  1. リソース操作

    • 利用可能なリソースを一覧表示する

    • リソースコンテンツを読む

    • リソースの変更に注意する

  2. ツール操作

    • 利用可能なツールの一覧

    • パラメータ付きツールを実行する

    • ツールスキーマを取得する

  3. 迅速な操作

    • 利用可能なプロンプトを一覧表示する

    • フォーマットされたプロンプトを取得する

    • プロンプト引数の補完を取得する

  4. 通知

    • リソースの変更

    • ツール/プロンプトリストの更新

    • 進捗状況の更新

    • ログメッセージ

A
license - permissive license
-
quality - not tested
C
maintenance

Maintenance

Maintainers
Response time
3wRelease cycle
8Releases (12mo)

Appeared in Searches

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server