Skip to main content
Glama

mcp-server-llmling

MIT License
5
  • Linux
  • Apple

mcp-сервер-llmling

Прочитайте документацию!

Руководство сервера LLMling

Обзор

mcp-server-llmling — это сервер для протокола Machine Chat Protocol (MCP), который предоставляет систему конфигурации на основе YAML для приложений LLM.

LLMLing , бэкэнд, предоставляет систему конфигурации на основе YAML для приложений LLM. Она позволяет настраивать пользовательские серверы MCP, обслуживающие контент, определенный в файлах YAML.

  • Статическое объявление : определите среду LLM в YAML — код не требуется
  • Протокол MCP : построен на протоколе машинного чата (MCP) для стандартизированного взаимодействия LLM
  • Типы компонентов :
    • Ресурсы : поставщики контента (файлы, текст, вывод CLI и т. д.)
    • Подсказки : Шаблоны сообщений с аргументами
    • Инструменты : Функции Python, вызываемые LLM

Конфигурация YAML создает полную среду, которая предоставляет LLM:

  • Доступ к контенту через ресурсы
  • Структурированные подсказки для последовательного взаимодействия
  • Инструменты для расширения возможностей

Основные характеристики

1. Управление ресурсами

  • Загрузка и управление различными типами ресурсов:
    • Текстовые файлы ( PathResource )
    • Необработанный текстовый контент ( TextResource )
    • Вывод команды CLI ( CLIResource )
    • Исходный код Python ( SourceResource )
    • Вызываемые результаты Python ( CallableResource )
    • Изображения ( ImageResource )
  • Поддержка наблюдения за ресурсами/горячей перезагрузки
  • Конвейеры обработки ресурсов
  • Доступ к ресурсам на основе URI

2. Система инструментов

  • Регистрация и выполнение функций Python как инструментов LLM
  • Поддержка инструментов на базе OpenAPI
  • Обнаружение инструмента на основе точки входа
  • Проверка инструмента и параметров
  • Структурированные ответы инструмента

3. Оперативное управление

  • Статические подсказки с поддержкой шаблонов
  • Динамические подсказки из функций Python
  • Подсказки на основе файлов
  • Быстрая проверка аргументов
  • Предложения по завершению для быстрых аргументов

4. Несколько вариантов транспортировки

  • Связь на основе stdio (по умолчанию)
  • События, отправленные сервером (SSE) / Потоковый HTTP для веб-клиентов
  • Поддержка пользовательских реализаций транспорта

Использование

С редактором Zed

Добавьте LLMLing в качестве сервера контекста в ваш settings.json :

{ "context_servers": { "llmling": { "command": { "env": {}, "label": "llmling", "path": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ] }, "settings": {} } } }

С Клодом Десктопом

Настройте LLMLing в claude_desktop_config.json :

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

Ручной запуск сервера

Запустите сервер прямо из командной строки:

# Latest version uvx mcp-server-llmling@latest

1. Программное использование

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. Использование специального транспорта

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 3001, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. Конфигурация ресурсов

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. Конфигурация инструмента

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json"

[!TIP] Для схем OpenAPI вы можете установить Redocly CLI для объединения и разрешения спецификаций OpenAPI перед их использованием с LLMLing. Это помогает гарантировать, что ссылки на схемы будут правильно разрешены, а спецификация будет правильно отформатирована. Если redocly установлен, он будет использоваться автоматически.

Конфигурация сервера

Сервер настраивается с помощью файла YAML со следующими разделами:

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

Протокол МСР

Сервер реализует протокол MCP, который поддерживает:

  1. Ресурсные операции
    • Список доступных ресурсов
    • Прочитать содержание ресурса
    • Следите за изменениями ресурсов
  2. Операции с инструментами
    • Список доступных инструментов
    • Выполнить инструменты с параметрами
    • Получить схемы инструментов
  3. Оперативные операции
    • Список доступных подсказок
    • Получить отформатированные подсказки
    • Получите дополнения для аргументов подсказки
  4. Уведомления
    • Изменения ресурсов
    • Обновления списка инструментов/подсказок
    • Обновления хода работ
    • Сообщения журнала
-
security - not tested
A
license - permissive license
-
quality - not tested

Сервер для протокола машинного чата (MCP), который предоставляет систему конфигурации на основе YAML для приложений LLM, позволяя пользователям определять ресурсы, инструменты и подсказки без написания кода.

  1. Руководство сервера LLMling
    1. Обзор
    2. Основные характеристики
    3. Использование
    4. Конфигурация сервера
    5. Протокол МСР

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    An MCP server that enables communication with users through Telegram. This server provides a tool to ask questions to users and receive their responses via a Telegram bot.
    Last updated -
    1
    16
    JavaScript
  • A
    security
    A
    license
    A
    quality
    An MCP server that enables saving and sharing Claude Desktop conversations, allowing users to store chats privately or make them public through a web interface.
    Last updated -
    2
    6
    TypeScript
    MIT License
    • Apple
  • -
    security
    A
    license
    -
    quality
    An MCP server that helps novice developers deploy web applications through conversational interfaces, bridging the gap between LLMs and various hosting environments.
    Last updated -
    1
    Python
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
    Last updated -
    4
    4
    1
    TypeScript
    MIT License
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server