Puente Claude-LMStudio
Un servidor MCP que conecta a Claude con los LLM locales que se ejecutan en LM Studio.
Descripción general
Esta herramienta le permite a Claude interactuar con sus LLM locales que se ejecutan en LM Studio, proporcionando:
Acceso al listado de todos los modelos disponibles en LM Studio
La capacidad de generar texto utilizando sus LLM locales
Soporte para completar chats a través de tus modelos locales
Una herramienta de comprobación del estado para verificar la conectividad con LM Studio
Related MCP server: MCP Server Memory File
Prerrequisitos
Claude Desktop con soporte para MCP
LM Studio instalado y ejecutándose localmente con el servidor API habilitado
Python 3.8+ instalado
Inicio rápido (recomendado)
Para macOS/Linux:
Clonar el repositorio
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git
cd claude-lmstudio-bridgeEjecutar el script de configuración
chmod +x setup.sh
./setup.shSiga las instrucciones del script de instalación para configurar Claude Desktop
Para Windows:
Clonar el repositorio
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git
cd claude-lmstudio-bridgeEjecutar el script de configuración
setup.batSiga las instrucciones del script de instalación para configurar Claude Desktop
Configuración manual
Si prefieres configurar las cosas manualmente:
Crear un entorno virtual (opcional pero recomendado)
python -m venv venv
source venv/bin/activate # On Windows: venv\Scripts\activateInstalar los paquetes necesarios
pip install -r requirements.txtConfigurar Claude Desktop:
Abra las preferencias de Claude Desktop
Vaya a la sección 'Servidores MCP'
Agregue un nuevo servidor MCP con la siguiente configuración:
Nombre : lmstudio-bridge
Comando : /bin/bash (en macOS/Linux) o cmd.exe (en Windows)
Argumentos :
macOS/Linux: /ruta/a/claude-lmstudio-bridge/run_server.sh
Windows: /c C:\ruta\a\claude-lmstudio-bridge\run_server.bat
Uso con Claude
Después de configurar el puente, puedes usar los siguientes comandos en Claude:
Compruebe la conexión a LM Studio:
Can you check if my LM Studio server is running?Lista de modelos disponibles:
List the available models in my local LM StudioGenerar texto con un modelo local:
Generate a short poem about spring using my local LLMEnviar una finalización de chat:
Ask my local LLM: "What are the main features of transformers in machine learning?"Solución de problemas
Diagnóstico de problemas de conexión de LM Studio
Utilice la herramienta de depuración incluida para comprobar su conexión a LM Studio:
python debug_lmstudio.pyPara pruebas más detalladas:
python debug_lmstudio.py --test-chat --verboseProblemas comunes
"No se puede conectar a la API de LM Studio"
Asegúrese de que LM Studio se esté ejecutando
Verifique que el servidor API esté habilitado en LM Studio (Configuración > Servidor API)
Verifique que el puerto (predeterminado: 1234) coincida con el que figura en su archivo .env
"No hay modelos cargados"
Abra LM Studio y cargue un modelo
Verifique que el modelo se esté ejecutando correctamente
"No se encontró el paquete MCP"
Intente reinstalar:
pip install "mcp[cli]" httpx python-dotenvAsegúrate de estar usando Python 3.8 o posterior
"Claude no puede encontrar el puente"
Comprobar la configuración de Claude Desktop
Asegúrese de que la ruta a run_server.sh o run_server.bat sea correcta y absoluta
Verifique que el script del servidor sea ejecutable:
chmod +x run_server.sh(en macOS/Linux)
Configuración avanzada
Puede personalizar el comportamiento del puente creando un archivo .env con estas configuraciones:
LMSTUDIO_HOST=127.0.0.1
LMSTUDIO_PORT=1234
DEBUG=falseEstablezca DEBUG=true para habilitar el registro detallado para la resolución de problemas.
Licencia
Instituto Tecnológico de Massachusetts (MIT)