mcp-server-llmling

by phil65
Verified

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Integrates with Codecov for tracking code coverage statistics and reporting.

  • Supports GitHub integration for repository management, tracking issues, pulls, stars and other GitHub project metrics.

  • Integrates with PyPI for package distribution and management information.

mcp-server-llmling

¡Lea la documentación!

Manual del servidor LLMling

Descripción general

mcp-server-llmling es un servidor para el Protocolo de chat de máquina (MCP) que proporciona un sistema de configuración basado en YAML para aplicaciones LLM.

LLMLing , el backend, proporciona un sistema de configuración basado en YAML para aplicaciones LLM. Permite configurar servidores MCP personalizados que sirven contenido definido en archivos YAML.

  • Declaración estática : define el entorno de tu LLM en YAML (no se requiere código)
  • Protocolo MCP : basado en el Protocolo de chat de máquina (MCP) para una interacción LLM estandarizada
  • Tipos de componentes :
    • Recursos : proveedores de contenido (archivos, texto, salida CLI, etc.)
    • Indicaciones : Plantillas de mensajes con argumentos
    • Herramientas : Funciones de Python que puede llamar el LLM

La configuración de YAML crea un entorno completo que proporciona al LLM:

  • Acceso al contenido a través de recursos
  • Indicaciones estructuradas para una interacción consistente
  • Herramientas para ampliar capacidades

Características principales

1. Gestión de recursos

  • Cargar y administrar diferentes tipos de recursos:
    • Archivos de texto ( PathResource )
    • Contenido de texto sin formato ( TextResource )
    • Salida del comando CLI ( CLIResource )
    • Código fuente de Python ( SourceResource )
    • Resultados invocables de Python ( CallableResource )
    • Imágenes ( ImageResource )
  • Soporte para vigilancia de recursos/recarga en caliente
  • Tuberías de procesamiento de recursos
  • Acceso a recursos basado en URI

2. Sistema de herramientas

  • Registrar y ejecutar funciones de Python como herramientas LLM
  • Compatibilidad con herramientas basadas en OpenAPI
  • Descubrimiento de herramientas basado en puntos de entrada
  • Validación de herramientas y verificación de parámetros
  • Respuestas de herramientas estructuradas

3. Gestión rápida

  • Indicaciones estáticas con soporte de plantillas
  • Indicaciones dinámicas de funciones de Python
  • Indicaciones basadas en archivos
  • Validación rápida de argumentos
  • Sugerencias para completar argumentos rápidos

4. Múltiples opciones de transporte

  • Comunicación basada en Stdio (predeterminada)
  • Eventos enviados por el servidor (SSE) para clientes web
  • Soporte para implementaciones de transporte personalizadas

Uso

Con Zed Editor

Agregue LLMLing como servidor de contexto en su settings.json :

{ "context_servers": { "llmling": { "command": { "env": {}, "label": "llmling", "path": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ] }, "settings": {} } } }

Con Claude Desktop

Configure LLMLing en su claude_desktop_config.json :

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

Inicio manual del servidor

Inicie el servidor directamente desde la línea de comandos:

# Latest version uvx mcp-server-llmling@latest

1. Uso programático

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. Uso de transporte personalizado

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 8000, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. Configuración de recursos

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. Configuración de la herramienta

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json" namespace: "api"

Configuración del servidor

El servidor se configura a través de un archivo YAML con las siguientes secciones:

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

Protocolo MCP

El servidor implementa el protocolo MCP que admite:

  1. Operaciones de recursos
    • Lista de recursos disponibles
    • Leer el contenido del recurso
    • Esté atento a los cambios de recursos
  2. Operaciones con herramientas
    • Lista de herramientas disponibles
    • Ejecutar herramientas con parámetros
    • Obtener esquemas de herramientas
  3. Operaciones rápidas
    • Lista de indicaciones disponibles
    • Obtener indicaciones formateadas
    • Obtener finalizaciones para argumentos de solicitud
  4. Notificaciones
    • Cambios en los recursos
    • Actualizaciones de la lista de herramientas/indicaciones
    • Actualizaciones de progreso
    • Mensajes de registro
-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor para el Protocolo de chat de máquina (MCP) que proporciona un sistema de configuración basado en YAML para aplicaciones LLM, permitiendo a los usuarios definir recursos, herramientas y avisos sin escribir código.

  1. LLMling Server Manual
    1. Overview
    2. Key Features
    3. Usage
    4. Server Configuration
    5. MCP Protocol

Appeared in Searches

ID: 2mdjbbuzee