Skip to main content
Glama

Claude-LMStudio Bridge

Puente Claude-LMStudio

Un servidor MCP que conecta a Claude con los LLM locales que se ejecutan en LM Studio.

Descripción general

Esta herramienta le permite a Claude interactuar con sus LLM locales que se ejecutan en LM Studio, proporcionando:

  • Acceso al listado de todos los modelos disponibles en LM Studio
  • La capacidad de generar texto utilizando sus LLM locales
  • Soporte para completar chats a través de tus modelos locales
  • Una herramienta de comprobación del estado para verificar la conectividad con LM Studio

Prerrequisitos

  • Claude Desktop con soporte para MCP
  • LM Studio instalado y ejecutándose localmente con el servidor API habilitado
  • Python 3.8+ instalado

Inicio rápido (recomendado)

Para macOS/Linux:

  1. Clonar el repositorio
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. Ejecutar el script de configuración
chmod +x setup.sh ./setup.sh
  1. Siga las instrucciones del script de instalación para configurar Claude Desktop

Para Windows:

  1. Clonar el repositorio
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. Ejecutar el script de configuración
setup.bat
  1. Siga las instrucciones del script de instalación para configurar Claude Desktop

Configuración manual

Si prefieres configurar las cosas manualmente:

  1. Crear un entorno virtual (opcional pero recomendado)
python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  1. Instalar los paquetes necesarios
pip install -r requirements.txt
  1. Configurar Claude Desktop:
    • Abra las preferencias de Claude Desktop
    • Vaya a la sección 'Servidores MCP'
    • Agregue un nuevo servidor MCP con la siguiente configuración:
      • Nombre : lmstudio-bridge
      • Comando : /bin/bash (en macOS/Linux) o cmd.exe (en Windows)
      • Argumentos :
        • macOS/Linux: /ruta/a/claude-lmstudio-bridge/run_server.sh
        • Windows: /c C:\ruta\a\claude-lmstudio-bridge\run_server.bat

Uso con Claude

Después de configurar el puente, puedes usar los siguientes comandos en Claude:

  1. Compruebe la conexión a LM Studio:
Can you check if my LM Studio server is running?
  1. Lista de modelos disponibles:
List the available models in my local LM Studio
  1. Generar texto con un modelo local:
Generate a short poem about spring using my local LLM
  1. Enviar una finalización de chat:
Ask my local LLM: "What are the main features of transformers in machine learning?"

Solución de problemas

Diagnóstico de problemas de conexión de LM Studio

Utilice la herramienta de depuración incluida para comprobar su conexión a LM Studio:

python debug_lmstudio.py

Para pruebas más detalladas:

python debug_lmstudio.py --test-chat --verbose

Problemas comunes

"No se puede conectar a la API de LM Studio"

  • Asegúrese de que LM Studio se esté ejecutando
  • Verifique que el servidor API esté habilitado en LM Studio (Configuración > Servidor API)
  • Verifique que el puerto (predeterminado: 1234) coincida con el que figura en su archivo .env

"No hay modelos cargados"

  • Abra LM Studio y cargue un modelo
  • Verifique que el modelo se esté ejecutando correctamente

"No se encontró el paquete MCP"

  • Intente reinstalar: pip install "mcp[cli]" httpx python-dotenv
  • Asegúrate de estar usando Python 3.8 o posterior

"Claude no puede encontrar el puente"

  • Comprobar la configuración de Claude Desktop
  • Asegúrese de que la ruta a run_server.sh o run_server.bat sea correcta y absoluta
  • Verifique que el script del servidor sea ejecutable: chmod +x run_server.sh (en macOS/Linux)

Configuración avanzada

Puede personalizar el comportamiento del puente creando un archivo .env con estas configuraciones:

LMSTUDIO_HOST=127.0.0.1 LMSTUDIO_PORT=1234 DEBUG=false

Establezca DEBUG=true para habilitar el registro detallado para la resolución de problemas.

Licencia

Instituto Tecnológico de Massachusetts (MIT)

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Un servidor MCP que permite a Claude interactuar con LLM locales que se ejecutan en LM Studio, brindando acceso para enumerar modelos, generar texto y usar finalizaciones de chat a través de modelos locales.

  1. Descripción general
    1. Prerrequisitos
      1. Inicio rápido (recomendado)
        1. Para macOS/Linux:
        2. Para Windows:
      2. Configuración manual
        1. Uso con Claude
          1. Solución de problemas
            1. Diagnóstico de problemas de conexión de LM Studio
            2. Problemas comunes
          2. Configuración avanzada
            1. Licencia

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                Last updated -
                1
                Python
                MIT License
              • -
                security
                A
                license
                -
                quality
                A server for the Machine Chat Protocol (MCP) that provides a YAML-based configuration system for LLM applications, allowing users to define resources, tools, and prompts without writing code.
                Last updated -
                5
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                An MCP server that allows Claude and other LLMs to manage persistent memories across conversations through text file storage, enabling commands to add, search, delete and list memory entries.
                Last updated -
                2
                TypeScript
              • -
                security
                A
                license
                -
                quality
                A Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.
                Last updated -
                23
                MIT License
                • Apple
                • Linux

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/claude-lmstudio-bridge'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server