Skip to main content
Glama

mcp-server-llmling

MIT License
5
  • Linux
  • Apple

mcp-server-llmling

Licencia PyPI Estado del paquete Descargas diarias Descargas semanales Descargas mensuales Formato de distribución Disponibilidad de ruedas Versión de Python Implementación Lanzamientos Colaboradores de Github Discusiones de Github Bifurcaciones de Github Problemas de Github Problemas de Github Vigilantes de Github Estrellas de Github Tamaño del repositorio de Github Último commit de Github Fecha de lanzamiento de Github Recuento de idiomas de Github Compromisos de Github esta semana Compromisos de Github este mes Compromisos de Github este año Estado del paquete Estilo de código: negro PyUp

¡Lea la documentación!

Manual del servidor LLMling

Descripción general

mcp-server-llmling es un servidor para el Protocolo de chat de máquina (MCP) que proporciona un sistema de configuración basado en YAML para aplicaciones LLM.

LLMLing , el backend, proporciona un sistema de configuración basado en YAML para aplicaciones LLM. Permite configurar servidores MCP personalizados que sirven contenido definido en archivos YAML.

  • Declaración estática : define el entorno de tu LLM en YAML (no se requiere código)

  • Protocolo MCP : basado en el Protocolo de chat de máquina (MCP) para una interacción LLM estandarizada

  • Tipos de componentes :

    • Recursos : proveedores de contenido (archivos, texto, salida CLI, etc.)

    • Indicaciones : Plantillas de mensajes con argumentos

    • Herramientas : Funciones de Python que puede llamar el LLM

La configuración de YAML crea un entorno completo que proporciona al LLM:

  • Acceso al contenido a través de recursos

  • Indicaciones estructuradas para una interacción consistente

  • Herramientas para ampliar capacidades

Características principales

1. Gestión de recursos

  • Cargar y administrar diferentes tipos de recursos:

    • Archivos de texto ( PathResource )

    • Contenido de texto sin formato ( TextResource )

    • Salida del comando CLI ( CLIResource )

    • Código fuente de Python ( SourceResource )

    • Resultados invocables de Python ( CallableResource )

    • Imágenes ( ImageResource )

  • Soporte para vigilancia de recursos/recarga en caliente

  • Tuberías de procesamiento de recursos

  • Acceso a recursos basado en URI

2. Sistema de herramientas

  • Registrar y ejecutar funciones de Python como herramientas LLM

  • Compatibilidad con herramientas basadas en OpenAPI

  • Descubrimiento de herramientas basado en puntos de entrada

  • Validación de herramientas y verificación de parámetros

  • Respuestas de herramientas estructuradas

3. Gestión rápida

  • Indicaciones estáticas con soporte de plantillas

  • Indicaciones dinámicas de funciones de Python

  • Indicaciones basadas en archivos

  • Validación rápida de argumentos

  • Sugerencias para completar argumentos rápidos

4. Múltiples opciones de transporte

  • Comunicación basada en Stdio (predeterminada)

  • Eventos enviados por el servidor (SSE) / HTTP transmisible para clientes web

  • Soporte para implementaciones de transporte personalizadas

Uso

Con Zed Editor

Agregue LLMLing como servidor de contexto en su settings.json :

{ "context_servers": { "llmling": { "command": { "env": {}, "label": "llmling", "path": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ] }, "settings": {} } } }

Con Claude Desktop

Configure LLMLing en su claude_desktop_config.json :

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

Inicio manual del servidor

Inicie el servidor directamente desde la línea de comandos:

# Latest version uvx mcp-server-llmling@latest

1. Uso programático

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. Uso de transporte personalizado

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 3001, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. Configuración de recursos

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. Configuración de la herramienta

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json"
TIP

Para los esquemas OpenAPI, puede instalarRedocly CLI para agrupar y resolver las especificaciones OpenAPI antes de usarlas con LLMLing. Esto ayuda a garantizar que las referencias de esquema se resuelvan correctamente y que la especificación tenga el formato correcto. Si Redocly está instalado, se usará automáticamente.

Configuración del servidor

El servidor se configura a través de un archivo YAML con las siguientes secciones:

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

Protocolo MCP

El servidor implementa el protocolo MCP que admite:

  1. Operaciones de recursos

    • Lista de recursos disponibles

    • Leer el contenido del recurso

    • Esté atento a los cambios de recursos

  2. Operaciones con herramientas

    • Lista de herramientas disponibles

    • Ejecutar herramientas con parámetros

    • Obtener esquemas de herramientas

  3. Operaciones rápidas

    • Lista de indicaciones disponibles

    • Obtener indicaciones formateadas

    • Obtener finalizaciones para argumentos de solicitud

  4. Notificaciones

    • Cambios en los recursos

    • Actualizaciones de la lista de herramientas/indicaciones

    • Actualizaciones de progreso

    • Mensajes de registro

-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor para el Protocolo de chat de máquina (MCP) que proporciona un sistema de configuración basado en YAML para aplicaciones LLM, permitiendo a los usuarios definir recursos, herramientas y avisos sin escribir código.

  1. Manual del servidor LLMling
    1. Descripción general
    2. Características principales
    3. Uso
    4. Configuración del servidor
    5. Protocolo MCP

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    An MCP server that enables LLMs to interact with Moodle platforms to manage courses, students, assignments, and quizzes through natural language commands.
    Last updated -
    7
    18
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    A Model Context Protocol (MCP) server designed to easily dump your codebase context into Large Language Models (LLMs).
    Last updated -
    1
    24
    2
    Apache 2.0
  • A
    security
    F
    license
    A
    quality
    A ready-to-use starter implementation of the Model Context Protocol (MCP) server that enables applications to provide standardized context for LLMs with sample resources, tools, and prompts.
    Last updated -
    2
    1
  • -
    security
    F
    license
    -
    quality
    A comprehensive Model Context Protocol (MCP) server that provides 37+ intelligent development tools across JavaScript/TypeScript, Rust, and Python with security-first design and high-performance features.
    Last updated -
    11
    1

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server