Skip to main content
Glama

mcp-server-llmling

MIT License
5
  • Linux
  • Apple

mcp-server-llmling

Lesen Sie die Dokumentation!

LLMling Server Handbuch

Überblick

mcp-server-llmling ist ein Server für das Machine Chat Protocol (MCP), der ein YAML-basiertes Konfigurationssystem für LLM-Anwendungen bereitstellt.

LLMLing , das Backend, bietet ein YAML-basiertes Konfigurationssystem für LLM-Anwendungen. Es ermöglicht die Einrichtung benutzerdefinierter MCP-Server, die in YAML-Dateien definierte Inhalte bereitstellen.

  • Statische Deklaration : Definieren Sie die Umgebung Ihres LLM in YAML – kein Code erforderlich
  • MCP-Protokoll : Basiert auf dem Machine Chat Protocol (MCP) für standardisierte LLM-Interaktion
  • Komponententypen :
    • Ressourcen : Inhaltsanbieter (Dateien, Text, CLI-Ausgabe usw.)
    • Eingabeaufforderungen : Nachrichtenvorlagen mit Argumenten
    • Tools : Vom LLM aufrufbare Python-Funktionen

Die YAML-Konfiguration erstellt eine vollständige Umgebung, die dem LLM Folgendes bereitstellt:

  • Zugriff auf Inhalte über Ressourcen
  • Strukturierte Eingabeaufforderungen für konsistente Interaktion
  • Tools zur Erweiterung der Funktionen

Hauptmerkmale

1. Ressourcenmanagement

  • Laden und verwalten Sie verschiedene Arten von Ressourcen:
    • Textdateien ( PathResource )
    • Rohtextinhalt ( TextResource )
    • CLI-Befehlsausgabe ( CLIResource )
    • Python-Quellcode ( SourceResource )
    • Python-aufrufbare Ergebnisse ( CallableResource )
    • Bilder ( ImageResource )
  • Unterstützung für Ressourcenüberwachung/Hot-Reload
  • Ressourcenverarbeitungspipelines
  • URI-basierter Ressourcenzugriff

2. Werkzeugsystem

  • Python-Funktionen als LLM-Tools registrieren und ausführen
  • Unterstützung für OpenAPI-basierte Tools
  • Einstiegspunktbasierte Toolerkennung
  • Werkzeugvalidierung und Parameterprüfung
  • Strukturierte Tool-Antworten

3. Schnelles Management

  • Statische Eingabeaufforderungen mit Vorlagenunterstützung
  • Dynamische Eingabeaufforderungen von Python-Funktionen
  • Dateibasierte Eingabeaufforderungen
  • Schnelle Argumentvalidierung
  • Vervollständigungsvorschläge für Prompt-Argumente

4. Mehrere Transportoptionen

  • Stdio-basierte Kommunikation (Standard)
  • Server-Sent Events (SSE) / Streamable HTTP für Webclients
  • Unterstützung für benutzerdefinierte Transportimplementierungen

Verwendung

Mit Zed Editor

Fügen Sie LLMLing als Kontextserver in Ihrer settings.json hinzu:

{ "context_servers": { "llmling": { "command": { "env": {}, "label": "llmling", "path": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ] }, "settings": {} } } }

Mit Claude Desktop

Konfigurieren Sie LLMLing in Ihrer claude_desktop_config.json :

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

Manueller Serverstart

Starten Sie den Server direkt von der Befehlszeile:

# Latest version uvx mcp-server-llmling@latest

1. Programmatische Nutzung

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. Verwenden von benutzerdefiniertem Transport

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 3001, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. Ressourcenkonfiguration

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. Werkzeugkonfiguration

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json"

[!TIP] Für OpenAPI-Schemas können Sie die Redocly-Befehlszeilenschnittstelle installieren, um OpenAPI-Spezifikationen zu bündeln und aufzulösen, bevor Sie sie mit LLMLing verwenden. Dadurch wird sichergestellt, dass Ihre Schemaverweise ordnungsgemäß aufgelöst und die Spezifikation korrekt formatiert wird. Wenn Redocly installiert ist, wird es automatisch verwendet.

Serverkonfiguration

Der Server wird über eine YAML-Datei mit den folgenden Abschnitten konfiguriert:

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

MCP-Protokoll

Der Server implementiert das MCP-Protokoll, das Folgendes unterstützt:

  1. Ressourcenvorgänge
    • Auflisten der verfügbaren Ressourcen
    • Ressourceninhalt lesen
    • Achten Sie auf Ressourcenänderungen
  2. Werkzeugoperationen
    • Liste der verfügbaren Tools
    • Ausführen von Werkzeugen mit Parametern
    • Abrufen von Toolschemata
  3. Sofortige Operationen
    • Liste der verfügbaren Eingabeaufforderungen
    • Erhalten Sie formatierte Eingabeaufforderungen
    • Abrufen von Vervollständigungen für Eingabeaufforderungsargumente
  4. Benachrichtigungen
    • Ressourcenänderungen
    • Aktualisierungen der Tool-/Eingabeaufforderungsliste
    • Fortschrittsaktualisierungen
    • Protokollmeldungen
-
security - not tested
A
license - permissive license
-
quality - not tested

Ein Server für das Machine Chat Protocol (MCP), der ein YAML-basiertes Konfigurationssystem für LLM-Anwendungen bereitstellt, mit dem Benutzer Ressourcen, Tools und Eingabeaufforderungen definieren können, ohne Code schreiben zu müssen.

  1. LLMling Server Handbuch
    1. Überblick
    2. Hauptmerkmale
    3. Verwendung
    4. Serverkonfiguration
    5. MCP-Protokoll

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    An MCP server that enables communication with users through Telegram. This server provides a tool to ask questions to users and receive their responses via a Telegram bot.
    Last updated -
    1
    16
    JavaScript
  • A
    security
    A
    license
    A
    quality
    An MCP server that enables saving and sharing Claude Desktop conversations, allowing users to store chats privately or make them public through a web interface.
    Last updated -
    2
    6
    TypeScript
    MIT License
    • Apple
  • -
    security
    A
    license
    -
    quality
    An MCP server that helps novice developers deploy web applications through conversational interfaces, bridging the gap between LLMs and various hosting environments.
    Last updated -
    1
    Python
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
    Last updated -
    4
    4
    1
    TypeScript
    MIT License
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server