Skip to main content
Glama

mcp-server-llmling

MIT License
5
  • Linux
  • Apple

mcp-server-llmling

¡Lea la documentación!

Manual del servidor LLMling

Descripción general

mcp-server-llmling es un servidor para el Protocolo de chat de máquina (MCP) que proporciona un sistema de configuración basado en YAML para aplicaciones LLM.

LLMLing , el backend, proporciona un sistema de configuración basado en YAML para aplicaciones LLM. Permite configurar servidores MCP personalizados que sirven contenido definido en archivos YAML.

  • Declaración estática : define el entorno de tu LLM en YAML (no se requiere código)
  • Protocolo MCP : basado en el Protocolo de chat de máquina (MCP) para una interacción LLM estandarizada
  • Tipos de componentes :
    • Recursos : proveedores de contenido (archivos, texto, salida CLI, etc.)
    • Indicaciones : Plantillas de mensajes con argumentos
    • Herramientas : Funciones de Python que puede llamar el LLM

La configuración de YAML crea un entorno completo que proporciona al LLM:

  • Acceso al contenido a través de recursos
  • Indicaciones estructuradas para una interacción consistente
  • Herramientas para ampliar capacidades

Características principales

1. Gestión de recursos

  • Cargar y administrar diferentes tipos de recursos:
    • Archivos de texto ( PathResource )
    • Contenido de texto sin formato ( TextResource )
    • Salida del comando CLI ( CLIResource )
    • Código fuente de Python ( SourceResource )
    • Resultados invocables de Python ( CallableResource )
    • Imágenes ( ImageResource )
  • Soporte para vigilancia de recursos/recarga en caliente
  • Tuberías de procesamiento de recursos
  • Acceso a recursos basado en URI

2. Sistema de herramientas

  • Registrar y ejecutar funciones de Python como herramientas LLM
  • Compatibilidad con herramientas basadas en OpenAPI
  • Descubrimiento de herramientas basado en puntos de entrada
  • Validación de herramientas y verificación de parámetros
  • Respuestas de herramientas estructuradas

3. Gestión rápida

  • Indicaciones estáticas con soporte de plantillas
  • Indicaciones dinámicas de funciones de Python
  • Indicaciones basadas en archivos
  • Validación rápida de argumentos
  • Sugerencias para completar argumentos rápidos

4. Múltiples opciones de transporte

  • Comunicación basada en Stdio (predeterminada)
  • Eventos enviados por el servidor (SSE) / HTTP transmisible para clientes web
  • Soporte para implementaciones de transporte personalizadas

Uso

Con Zed Editor

Agregue LLMLing como servidor de contexto en su settings.json :

{ "context_servers": { "llmling": { "command": { "env": {}, "label": "llmling", "path": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ] }, "settings": {} } } }

Con Claude Desktop

Configure LLMLing en su claude_desktop_config.json :

{ "mcpServers": { "llmling": { "command": "uvx", "args": [ "mcp-server-llmling", "start", "path/to/your/config.yml" ], "env": {} } } }

Inicio manual del servidor

Inicie el servidor directamente desde la línea de comandos:

# Latest version uvx mcp-server-llmling@latest

1. Uso programático

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer(runtime, enable_injection=True) await server.start() asyncio.run(main())

2. Uso de transporte personalizado

from llmling import RuntimeConfig from mcp_server_llmling import LLMLingServer async def main() -> None: async with RuntimeConfig.open(config) as runtime: server = LLMLingServer( config, transport="sse", transport_options={ "host": "localhost", "port": 3001, "cors_origins": ["http://localhost:3000"] } ) await server.start() asyncio.run(main())

3. Configuración de recursos

resources: python_code: type: path path: "./src/**/*.py" watch: enabled: true patterns: - "*.py" - "!**/__pycache__/**" api_docs: type: text content: | API Documentation ================ ...

4. Configuración de la herramienta

tools: analyze_code: import_path: "mymodule.tools.analyze_code" description: "Analyze Python code structure" toolsets: api: type: openapi spec: "https://api.example.com/openapi.json"

[!TIP] Para los esquemas OpenAPI, puede instalar Redocly CLI para agrupar y resolver las especificaciones OpenAPI antes de usarlas con LLMLing. Esto ayuda a garantizar que las referencias de esquema se resuelvan correctamente y que la especificación tenga el formato correcto. Si Redocly está instalado, se usará automáticamente.

Configuración del servidor

El servidor se configura a través de un archivo YAML con las siguientes secciones:

global_settings: timeout: 30 max_retries: 3 log_level: "INFO" requirements: [] pip_index_url: null extra_paths: [] resources: # Resource definitions... tools: # Tool definitions... toolsets: # Toolset definitions... prompts: # Prompt definitions...

Protocolo MCP

El servidor implementa el protocolo MCP que admite:

  1. Operaciones de recursos
    • Lista de recursos disponibles
    • Leer el contenido del recurso
    • Esté atento a los cambios de recursos
  2. Operaciones con herramientas
    • Lista de herramientas disponibles
    • Ejecutar herramientas con parámetros
    • Obtener esquemas de herramientas
  3. Operaciones rápidas
    • Lista de indicaciones disponibles
    • Obtener indicaciones formateadas
    • Obtener finalizaciones para argumentos de solicitud
  4. Notificaciones
    • Cambios en los recursos
    • Actualizaciones de la lista de herramientas/indicaciones
    • Actualizaciones de progreso
    • Mensajes de registro
-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor para el Protocolo de chat de máquina (MCP) que proporciona un sistema de configuración basado en YAML para aplicaciones LLM, permitiendo a los usuarios definir recursos, herramientas y avisos sin escribir código.

  1. Manual del servidor LLMling
    1. Descripción general
    2. Características principales
    3. Uso
    4. Configuración del servidor
    5. Protocolo MCP

Related MCP Servers

  • -
    security
    F
    license
    -
    quality
    An MCP server that enables communication with users through Telegram. This server provides a tool to ask questions to users and receive their responses via a Telegram bot.
    Last updated -
    1
    16
    JavaScript
  • A
    security
    A
    license
    A
    quality
    An MCP server that enables saving and sharing Claude Desktop conversations, allowing users to store chats privately or make them public through a web interface.
    Last updated -
    2
    6
    TypeScript
    MIT License
    • Apple
  • -
    security
    A
    license
    -
    quality
    An MCP server that helps novice developers deploy web applications through conversational interfaces, bridging the gap between LLMs and various hosting environments.
    Last updated -
    1
    Python
    MIT License
    • Apple
  • A
    security
    A
    license
    A
    quality
    An MCP server that enables LLMs to perform blockchain operations on the Base network through natural language commands, including wallet management, balance checking, and transaction execution.
    Last updated -
    4
    4
    1
    TypeScript
    MIT License
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/phil65/mcp-server-llmling'

If you have feedback or need assistance with the MCP directory API, please join our Discord server