local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Puente Claude-LMStudio
Un servidor MCP que conecta a Claude con los LLM locales que se ejecutan en LM Studio.
Descripción general
Esta herramienta le permite a Claude interactuar con sus LLM locales que se ejecutan en LM Studio, proporcionando:
- Acceso al listado de todos los modelos disponibles en LM Studio
- La capacidad de generar texto utilizando sus LLM locales
- Soporte para completar chats a través de tus modelos locales
- Una herramienta de comprobación del estado para verificar la conectividad con LM Studio
Prerrequisitos
- Claude Desktop con soporte para MCP
- LM Studio instalado y ejecutándose localmente con el servidor API habilitado
- Python 3.8+ instalado
Inicio rápido (recomendado)
Para macOS/Linux:
- Clonar el repositorio
- Ejecutar el script de configuración
- Siga las instrucciones del script de instalación para configurar Claude Desktop
Para Windows:
- Clonar el repositorio
- Ejecutar el script de configuración
- Siga las instrucciones del script de instalación para configurar Claude Desktop
Configuración manual
Si prefieres configurar las cosas manualmente:
- Crear un entorno virtual (opcional pero recomendado)
- Instalar los paquetes necesarios
- Configurar Claude Desktop:
- Abra las preferencias de Claude Desktop
- Vaya a la sección 'Servidores MCP'
- Agregue un nuevo servidor MCP con la siguiente configuración:
- Nombre : lmstudio-bridge
- Comando : /bin/bash (en macOS/Linux) o cmd.exe (en Windows)
- Argumentos :
- macOS/Linux: /ruta/a/claude-lmstudio-bridge/run_server.sh
- Windows: /c C:\ruta\a\claude-lmstudio-bridge\run_server.bat
Uso con Claude
Después de configurar el puente, puedes usar los siguientes comandos en Claude:
- Compruebe la conexión a LM Studio:
- Lista de modelos disponibles:
- Generar texto con un modelo local:
- Enviar una finalización de chat:
Solución de problemas
Diagnóstico de problemas de conexión de LM Studio
Utilice la herramienta de depuración incluida para comprobar su conexión a LM Studio:
Para pruebas más detalladas:
Problemas comunes
"No se puede conectar a la API de LM Studio"
- Asegúrese de que LM Studio se esté ejecutando
- Verifique que el servidor API esté habilitado en LM Studio (Configuración > Servidor API)
- Verifique que el puerto (predeterminado: 1234) coincida con el que figura en su archivo .env
"No hay modelos cargados"
- Abra LM Studio y cargue un modelo
- Verifique que el modelo se esté ejecutando correctamente
"No se encontró el paquete MCP"
- Intente reinstalar:
pip install "mcp[cli]" httpx python-dotenv
- Asegúrate de estar usando Python 3.8 o posterior
"Claude no puede encontrar el puente"
- Comprobar la configuración de Claude Desktop
- Asegúrese de que la ruta a run_server.sh o run_server.bat sea correcta y absoluta
- Verifique que el script del servidor sea ejecutable:
chmod +x run_server.sh
(en macOS/Linux)
Configuración avanzada
Puede personalizar el comportamiento del puente creando un archivo .env
con estas configuraciones:
Establezca DEBUG=true
para habilitar el registro detallado para la resolución de problemas.
Licencia
Instituto Tecnológico de Massachusetts (MIT)
This server cannot be installed
Un servidor MCP que permite a Claude interactuar con LLM locales que se ejecutan en LM Studio, brindando acceso para enumerar modelos, generar texto y usar finalizaciones de chat a través de modelos locales.