Skip to main content
Glama

클로드-LM 스튜디오 브릿지

LM Studio에서 실행되는 로컬 LLM과 Claude를 연결하는 MCP 서버입니다.

개요

이 도구를 사용하면 Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용하여 다음을 제공할 수 있습니다.

  • LM Studio에서 사용 가능한 모든 모델을 나열할 수 있습니다.

  • 로컬 LLM을 사용하여 텍스트를 생성하는 기능

  • 로컬 모델을 통한 채팅 완료 지원

  • LM Studio와의 연결을 확인하기 위한 상태 점검 도구

Related MCP server: MCP Server Memory File

필수 조건

  • MCP 지원이 포함된 Claude Desktop

  • API 서버가 활성화된 로컬에서 LM Studio가 설치 및 실행됨

  • Python 3.8+ 설치됨

빠른 시작(권장)

macOS/Linux의 경우:

  1. 저장소를 복제합니다

지엑스피1

  1. 설치 스크립트 실행

chmod +x setup.sh ./setup.sh
  1. Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.

Windows의 경우:

  1. 저장소를 복제합니다

git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. 설치 스크립트 실행

setup.bat
  1. Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.

수동 설정

수동으로 설정하려면 다음을 수행하세요.

  1. 가상 환경 만들기(선택 사항이지만 권장)

python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  1. 필요한 패키지를 설치하세요

pip install -r requirements.txt
  1. Claude Desktop 구성:

    • Claude Desktop 환경 설정 열기

    • 'MCP 서버' 섹션으로 이동하세요

    • 다음 구성으로 새로운 MCP 서버를 추가합니다.

      • 이름 : lmstudio-bridge

      • 명령어 : /bin/bash (macOS/Linux) 또는 cmd.exe (Windows)

      • 인수 :

        • macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh

        • Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat

Claude와 함께 사용

브리지를 설정한 후 Claude에서 다음 명령을 사용할 수 있습니다.

  1. LM Studio와의 연결을 확인하세요:

Can you check if my LM Studio server is running?
  1. 사용 가능한 모델 목록:

List the available models in my local LM Studio
  1. 로컬 모델로 텍스트 생성:

Generate a short poem about spring using my local LLM
  1. 채팅 완료 보내기:

Ask my local LLM: "What are the main features of transformers in machine learning?"

문제 해결

LM Studio 연결 문제 진단

포함된 디버깅 도구를 사용하여 LM Studio 연결을 확인하세요.

python debug_lmstudio.py

더 자세한 테스트를 보려면:

python debug_lmstudio.py --test-chat --verbose

일반적인 문제

"LM Studio API에 연결할 수 없습니다"

  • LM Studio가 실행 중인지 확인하세요

  • LM Studio에서 API 서버가 활성화되어 있는지 확인하세요(설정 > API 서버)

  • 포트(기본값: 1234)가 .env 파일에 있는 것과 일치하는지 확인하세요.

"모델이 로드되지 않았습니다"

  • LM Studio를 열고 모델을 로드합니다.

  • 모델이 성공적으로 실행되는지 확인하세요

"MCP 패키지를 찾을 수 없습니다"

  • 다시 설치해보세요: pip install "mcp[cli]" httpx python-dotenv

  • Python 3.8 이상을 사용하고 있는지 확인하세요.

"클로드는 다리를 찾을 수 없어"

  • Claude Desktop 구성 확인

  • run_server.sh 또는 run_server.bat의 경로가 올바르고 절대적인지 확인하세요.

  • 서버 스크립트가 실행 가능한지 확인하세요: chmod +x run_server.sh (macOS/Linux)

고급 구성

다음 설정을 사용하여 .env 파일을 만들어 브리지 동작을 사용자 지정할 수 있습니다.

LMSTUDIO_HOST=127.0.0.1 LMSTUDIO_PORT=1234 DEBUG=false

문제 해결을 위해 자세한 로깅을 활성화하려면 DEBUG=true 설정합니다.

특허

MIT

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/claude-lmstudio-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server