Skip to main content
Glama

mcp-server-llmling

MIT License
5
  • Linux
  • Apple

mcp-сервер-llmling

Лицензия PyPI Статус посылки Ежедневные загрузки Еженедельные загрузки Ежемесячные загрузки Формат распространения Наличие колес Версия Python Выполнение Релизы Участники Github Обсуждения на Github Форки Github Проблемы с Github Проблемы с Github Наблюдатели Github Звезды Github Размер репозитория Github Последний коммит Github Дата релиза на Github Количество языков Github Github зафиксирует изменения на этой неделе Github зафиксирует изменения в этом месяце Github зафиксирует изменения в этом году Статус посылки Стиль кода: черный PyUp

Прочитайте документацию!

Руководство сервера LLMling

Обзор

mcp-server-llmling — это сервер для протокола Machine Chat Protocol (MCP), который предоставляет систему конфигурации на основе YAML для приложений LLM.

LLMLing , бэкэнд, предоставляет систему конфигурации на основе YAML для приложений LLM. Она позволяет настраивать пользовательские серверы MCP, обслуживающие контент, определенный в файлах YAML.

  • Статическое объявление : определите среду LLM в YAML — код не требуется

  • Протокол MCP : построен на протоколе машинного чата (MCP) для стандартизированного взаимодействия LLM

  • Типы компонентов :

    • Ресурсы : поставщики контента (файлы, текст, вывод CLI и т. д.)

    • Подсказки : Шаблоны сообщений с аргументами

    • Инструменты : Функции Python, вызываемые LLM

Конфигурация YAML создает полную среду, которая предоставляет LLM:

  • Доступ к контенту через ресурсы

  • Структурированные подсказки для последовательного взаимодействия

  • Инструменты для расширения возможностей

Основные характеристики

1. Управление ресурсами

  • Загрузка и управление различными типами ресурсов:

    • Текстовые файлы ( PathResource )

    • Необработанный текстовый контент ( TextResource )

    • Вывод команды CLI ( CLIResource )

    • Исходный код Python ( SourceResource )

    • Вызываемые результаты Python ( CallableResource )

    • Изображения ( ImageResource )

  • Поддержка наблюдения за ресурсами/горячей перезагрузки

  • Конвейеры обработки ресурсов

  • Доступ к ресурсам на основе URI

2. Система инструментов

  • Регистрация и выполнение функций Python как инструментов LLM

  • Поддержка инструментов на базе OpenAPI

  • Обнаружение инструмента на основе точки входа

  • Проверка инструмента и параметров

  • Структурированные ответы инструмента

3. Оперативное управление

  • Статические подсказки с поддержкой шаблонов

  • Динамические подсказки из функций Python

  • Подсказки на основе файлов

  • Быстрая проверка аргументов

  • Предложения по завершению для быстрых аргументов

4. Несколько вариантов транспортировки

  • Связь на основе stdio (по умолчанию)

  • События, отправленные сервером (SSE) / Потоковый HTTP для веб-клиентов

  • Поддержка пользовательских реализаций транспорта

Использование

С редактором Zed

Добавьте LLMLing в качестве сервера контекста в ваш settings.json :

{ "context_servers": { "llmling": { "command": { "env": {}, "label": "llmling", "path": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ] }, "settings": {} } } }

С Клодом Десктопом

Настройте LLMLing в claude_desktop_config.json :

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

Ручной запуск сервера

Запустите сервер прямо из командной строки:

# Latest version uvx mcp-server-llmling@latest

1. Программное использование

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. Использование специального транспорта

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 3001, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. Конфигурация ресурсов

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. Конфигурация инструмента

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json"
TIP

Для схем OpenAPI вы можете установитьRedocly CLI для объединения и разрешения спецификаций OpenAPI перед их использованием с LLMLing. Это помогает гарантировать, что ссылки на схемы будут правильно разрешены, а спецификация будет правильно отформатирована. Если redocly установлен, он будет использоваться автоматически.

Конфигурация сервера

Сервер настраивается с помощью файла YAML со следующими разделами:

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

Протокол МСР

Сервер реализует протокол MCP, который поддерживает:

  1. Ресурсные операции

    • Список доступных ресурсов

    • Прочитать содержание ресурса

    • Следите за изменениями ресурсов

  2. Операции с инструментами

    • Список доступных инструментов

    • Выполнить инструменты с параметрами

    • Получить схемы инструментов

  3. Оперативные операции

    • Список доступных подсказок

    • Получить отформатированные подсказки

    • Получите дополнения для аргументов подсказки

  4. Уведомления

    • Изменения ресурсов

    • Обновления списка инструментов/подсказок

    • Обновления хода работ

    • Сообщения журнала

-
security - not tested
-
license - not tested
-
quality - not tested

Сервер для протокола машинного чата (MCP), который предоставляет систему конфигурации на основе YAML для приложений LLM, позволяя пользователям определять ресурсы, инструменты и подсказки без написания кода.

  1. Руководство сервера LLMling
    1. Обзор
    2. Основные характеристики
    3. Использование
    4. Конфигурация сервера
    5. Протокол МСР

Related MCP Servers

  • A
    security
    -
    license
    A
    quality
    An MCP server that enables LLMs to interact with Moodle platforms to manage courses, students, assignments, and quizzes through natural language commands.
    Last updated -
    7
    18
    MIT License
    • Apple
  • A
    security
    -
    license
    A
    quality
    A Model Context Protocol (MCP) server designed to easily dump your codebase context into Large Language Models (LLMs).
    Last updated -
    1
    24
    2
    Apache 2.0
  • A
    security
    -
    license
    A
    quality
    A ready-to-use starter implementation of the Model Context Protocol (MCP) server that enables applications to provide standardized context for LLMs with sample resources, tools, and prompts.
    Last updated -
    2
    1
  • -
    security
    -
    license
    -
    quality
    A comprehensive Model Context Protocol (MCP) server that provides 37+ intelligent development tools across JavaScript/TypeScript, Rust, and Python with security-first design and high-performance features.
    Last updated -
    11
    1

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server