Skip to main content
Glama

LMStudio-MCP

LMStudio-MCP

Un servidor de Protocolo de Control de Modelos (MCP) que permite a Claude comunicarse con modelos LLM que se ejecutan localmente a través de LM Studio.

Descripción general

LMStudio-MCP crea un puente entre Claude (con capacidades MCP) y su instancia local de LM Studio. Esto permite a Claude:

  • Comprueba el estado de tu API de LM Studio
  • Lista de modelos disponibles
  • Obtener el modelo cargado actualmente
  • Generar finalizaciones utilizando sus modelos locales

Esto le permite aprovechar sus propios modelos que se ejecutan localmente a través de la interfaz de Claude, combinando las capacidades de Claude con sus modelos privados.

Prerrequisitos

  • Python 3.7+
  • LM Studio instalado y ejecutándose localmente con un modelo cargado
  • Claude con acceso MCP
  • Paquetes de Python necesarios (ver Instalación)

Instalación

  1. Clonar este repositorio:
    git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCP
  2. Instalar los paquetes necesarios:
    pip install requests "mcp[cli]" openai

Configuración de MCP

Para que Claude se conecte a este puente, debe configurar correctamente los ajustes del MCP. Puede:

  1. Usar directamente desde GitHub :
    { "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }
  2. Utilice la instalación local :
    { "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }

Para obtener instrucciones detalladas de configuración de MCP, consulte MCP_CONFIGURATION.md .

Uso

  1. Inicie su aplicación LM Studio y asegúrese de que se esté ejecutando en el puerto 1234 (predeterminado)
  2. Cargar un modelo en LM Studio
  3. Si se ejecuta localmente (sin usar uvx ), ejecute el servidor LMStudio-MCP:
    python lmstudio_bridge.py
  4. En Claude, conéctese al servidor MCP cuando se le solicite seleccionando "lmstudio-mcp".

Funciones disponibles

El puente proporciona las siguientes funciones:

  • health_check() : verifica si la API de LM Studio es accesible
  • list_models() : Obtener una lista de todos los modelos disponibles en LM Studio
  • get_current_model() : Identifica qué modelo está cargado actualmente
  • chat_completion(prompt, system_prompt, temperature, max_tokens) : genera texto desde tu modelo local

Limitaciones conocidas

  • Algunos modelos (por ejemplo, phi-3.5-mini-instruct_uncensored) pueden tener problemas de compatibilidad
  • Actualmente, el puente utiliza solo los puntos finales de API compatibles con OpenAI de LM Studio
  • Las respuestas del modelo estarán limitadas por las capacidades de su modelo cargado localmente

Solución de problemas

Problemas de conexión de la API

Si Claude informa errores 404 al intentar conectarse a LM Studio:

  • Asegúrese de que LM Studio se esté ejecutando y tenga un modelo cargado
  • Compruebe que el servidor de LM Studio se esté ejecutando en el puerto 1234
  • Verifique que su firewall no esté bloqueando la conexión
  • Intente usar "127.0.0.1" en lugar de "localhost" en la URL de la API si los problemas persisten

Compatibilidad del modelo

Si ciertos modelos no funcionan correctamente:

  • Es posible que algunos modelos no admitan totalmente el formato de la API de finalización de chat de OpenAI
  • Pruebe diferentes valores de parámetros (temperatura, max_tokens) para modelos problemáticos
  • Considere cambiar a un modelo más compatible si los problemas persisten

Para obtener ayuda más detallada sobre la resolución de problemas, consulte TROUBLESHOOTING.md .

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Expresiones de gratitud

Este proyecto se desarrolló originalmente como "Claude-LMStudio-Bridge_V2" y ha sido renombrado y publicado como código abierto "LMStudio-MCP".

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un puente que permite a Claude comunicarse con modelos LLM que se ejecutan localmente a través de LM Studio, lo que permite a los usuarios aprovechar sus modelos privados a través de la interfaz de Claude.

  1. Descripción general
    1. Prerrequisitos
      1. Instalación
        1. Configuración de MCP
          1. Uso
            1. Funciones disponibles
              1. Limitaciones conocidas
                1. Solución de problemas
                  1. Problemas de conexión de la API
                  2. Compatibilidad del modelo
                2. Licencia
                  1. Expresiones de gratitud

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
                      Last updated -
                      165
                      47
                      TypeScript
                      AGPL 3.0
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.
                      Last updated -
                      17
                      Python
                      Apache 2.0
                      • Linux
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A FreeCAD addon that implements the Model Context Protocol (MCP) to enable communication between FreeCAD and Claude AI through Claude Desktop.
                      Last updated -
                      17
                      Python
                      MIT License
                      • Linux
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.
                      Last updated -
                      23
                      MIT License
                      • Apple
                      • Linux

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/LMStudio-MCP'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server