Claude-LMStudio Bridge

by infinitimeless
Verified

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Enables advanced configuration through .env files to customize bridge behavior

  • Used for downloading the bridge software through repository cloning

  • Allows cloning the repository from GitHub as part of the installation process

클로드-LM 스튜디오 브릿지

LM Studio에서 실행되는 로컬 LLM과 Claude를 연결하는 MCP 서버입니다.

개요

이 도구를 사용하면 Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용하여 다음을 제공할 수 있습니다.

  • LM Studio에서 사용 가능한 모든 모델을 나열할 수 있습니다.
  • 로컬 LLM을 사용하여 텍스트를 생성하는 기능
  • 로컬 모델을 통한 채팅 완료 지원
  • LM Studio와의 연결을 확인하기 위한 상태 점검 도구

필수 조건

  • MCP 지원이 포함된 Claude Desktop
  • API 서버가 활성화된 로컬에서 LM Studio가 설치 및 실행됨
  • Python 3.8+ 설치됨

빠른 시작(권장)

macOS/Linux의 경우:

  1. 저장소를 복제합니다

지엑스피1

  1. 설치 스크립트 실행
chmod +x setup.sh ./setup.sh
  1. Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.

Windows의 경우:

  1. 저장소를 복제합니다
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. 설치 스크립트 실행
setup.bat
  1. Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.

수동 설정

수동으로 설정하려면 다음을 수행하세요.

  1. 가상 환경 만들기(선택 사항이지만 권장)
python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  1. 필요한 패키지를 설치하세요
pip install -r requirements.txt
  1. Claude Desktop 구성:
    • Claude Desktop 환경 설정 열기
    • 'MCP 서버' 섹션으로 이동하세요
    • 다음 구성으로 새로운 MCP 서버를 추가합니다.
      • 이름 : lmstudio-bridge
      • 명령어 : /bin/bash (macOS/Linux) 또는 cmd.exe (Windows)
      • 인수 :
        • macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
        • Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat

Claude와 함께 사용

브리지를 설정한 후 Claude에서 다음 명령을 사용할 수 있습니다.

  1. LM Studio와의 연결을 확인하세요:
Can you check if my LM Studio server is running?
  1. 사용 가능한 모델 목록:
List the available models in my local LM Studio
  1. 로컬 모델로 텍스트 생성:
Generate a short poem about spring using my local LLM
  1. 채팅 완료 보내기:
Ask my local LLM: "What are the main features of transformers in machine learning?"

문제 해결

LM Studio 연결 문제 진단

포함된 디버깅 도구를 사용하여 LM Studio 연결을 확인하세요.

python debug_lmstudio.py

더 자세한 테스트를 보려면:

python debug_lmstudio.py --test-chat --verbose

일반적인 문제

"LM Studio API에 연결할 수 없습니다"

  • LM Studio가 실행 중인지 확인하세요
  • LM Studio에서 API 서버가 활성화되어 있는지 확인하세요(설정 > API 서버)
  • 포트(기본값: 1234)가 .env 파일에 있는 것과 일치하는지 확인하세요.

"모델이 로드되지 않았습니다"

  • LM Studio를 열고 모델을 로드합니다.
  • 모델이 성공적으로 실행되는지 확인하세요

"MCP 패키지를 찾을 수 없습니다"

  • 다시 설치해보세요: pip install "mcp[cli]" httpx python-dotenv
  • Python 3.8 이상을 사용하고 있는지 확인하세요.

"클로드는 다리를 찾을 수 없어"

  • Claude Desktop 구성 확인
  • run_server.sh 또는 run_server.bat의 경로가 올바르고 절대적인지 확인하세요.
  • 서버 스크립트가 실행 가능한지 확인하세요: chmod +x run_server.sh (macOS/Linux)

고급 구성

다음 설정을 사용하여 .env 파일을 만들어 브리지 동작을 사용자 지정할 수 있습니다.

LMSTUDIO_HOST=127.0.0.1 LMSTUDIO_PORT=1234 DEBUG=false

문제 해결을 위해 자세한 로깅을 활성화하려면 DEBUG=true 설정합니다.

특허

MIT

-
security - not tested
F
license - not found
-
quality - not tested

Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용할 수 있는 MCP 서버로, 로컬 모델을 통해 모델 목록, 텍스트 생성, 채팅 완성 기능을 사용할 수 있습니다.

  1. Overview
    1. Prerequisites
      1. Quick Start (Recommended)
        1. For macOS/Linux:
        2. For Windows:
      2. Manual Setup
        1. Usage with Claude
          1. Troubleshooting
            1. Diagnosing LM Studio Connection Issues
            2. Common Issues
          2. Advanced Configuration
            1. License
              ID: fyg4e243vk