Skip to main content
Glama

Claude-LMStudio Bridge

클로드-LM 스튜디오 브릿지

LM Studio에서 실행되는 로컬 LLM과 Claude를 연결하는 MCP 서버입니다.

개요

이 도구를 사용하면 Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용하여 다음을 제공할 수 있습니다.

  • LM Studio에서 사용 가능한 모든 모델을 나열할 수 있습니다.
  • 로컬 LLM을 사용하여 텍스트를 생성하는 기능
  • 로컬 모델을 통한 채팅 완료 지원
  • LM Studio와의 연결을 확인하기 위한 상태 점검 도구

필수 조건

  • MCP 지원이 포함된 Claude Desktop
  • API 서버가 활성화된 로컬에서 LM Studio가 설치 및 실행됨
  • Python 3.8+ 설치됨

빠른 시작(권장)

macOS/Linux의 경우:

  1. 저장소를 복제합니다

지엑스피1

  1. 설치 스크립트 실행
chmod +x setup.sh ./setup.sh
  1. Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.

Windows의 경우:

  1. 저장소를 복제합니다
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. 설치 스크립트 실행
setup.bat
  1. Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.

수동 설정

수동으로 설정하려면 다음을 수행하세요.

  1. 가상 환경 만들기(선택 사항이지만 권장)
python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  1. 필요한 패키지를 설치하세요
pip install -r requirements.txt
  1. Claude Desktop 구성:
    • Claude Desktop 환경 설정 열기
    • 'MCP 서버' 섹션으로 이동하세요
    • 다음 구성으로 새로운 MCP 서버를 추가합니다.
      • 이름 : lmstudio-bridge
      • 명령어 : /bin/bash (macOS/Linux) 또는 cmd.exe (Windows)
      • 인수 :
        • macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
        • Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat

Claude와 함께 사용

브리지를 설정한 후 Claude에서 다음 명령을 사용할 수 있습니다.

  1. LM Studio와의 연결을 확인하세요:
Can you check if my LM Studio server is running?
  1. 사용 가능한 모델 목록:
List the available models in my local LM Studio
  1. 로컬 모델로 텍스트 생성:
Generate a short poem about spring using my local LLM
  1. 채팅 완료 보내기:
Ask my local LLM: "What are the main features of transformers in machine learning?"

문제 해결

LM Studio 연결 문제 진단

포함된 디버깅 도구를 사용하여 LM Studio 연결을 확인하세요.

python debug_lmstudio.py

더 자세한 테스트를 보려면:

python debug_lmstudio.py --test-chat --verbose

일반적인 문제

"LM Studio API에 연결할 수 없습니다"

  • LM Studio가 실행 중인지 확인하세요
  • LM Studio에서 API 서버가 활성화되어 있는지 확인하세요(설정 > API 서버)
  • 포트(기본값: 1234)가 .env 파일에 있는 것과 일치하는지 확인하세요.

"모델이 로드되지 않았습니다"

  • LM Studio를 열고 모델을 로드합니다.
  • 모델이 성공적으로 실행되는지 확인하세요

"MCP 패키지를 찾을 수 없습니다"

  • 다시 설치해보세요: pip install "mcp[cli]" httpx python-dotenv
  • Python 3.8 이상을 사용하고 있는지 확인하세요.

"클로드는 다리를 찾을 수 없어"

  • Claude Desktop 구성 확인
  • run_server.sh 또는 run_server.bat의 경로가 올바르고 절대적인지 확인하세요.
  • 서버 스크립트가 실행 가능한지 확인하세요: chmod +x run_server.sh (macOS/Linux)

고급 구성

다음 설정을 사용하여 .env 파일을 만들어 브리지 동작을 사용자 지정할 수 있습니다.

LMSTUDIO_HOST=127.0.0.1 LMSTUDIO_PORT=1234 DEBUG=false

문제 해결을 위해 자세한 로깅을 활성화하려면 DEBUG=true 설정합니다.

특허

MIT

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용할 수 있는 MCP 서버로, 로컬 모델을 통해 모델 목록, 텍스트 생성, 채팅 완성 기능을 사용할 수 있습니다.

  1. 개요
    1. 필수 조건
      1. 빠른 시작(권장)
        1. macOS/Linux의 경우:
        2. Windows의 경우:
      2. 수동 설정
        1. Claude와 함께 사용
          1. 문제 해결
            1. LM Studio 연결 문제 진단
            2. 일반적인 문제
          2. 고급 구성
            1. 특허

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                Last updated -
                1
                Python
                MIT License
              • -
                security
                A
                license
                -
                quality
                A server for the Machine Chat Protocol (MCP) that provides a YAML-based configuration system for LLM applications, allowing users to define resources, tools, and prompts without writing code.
                Last updated -
                5
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                An MCP server that allows Claude and other LLMs to manage persistent memories across conversations through text file storage, enabling commands to add, search, delete and list memory entries.
                Last updated -
                2
                TypeScript
              • -
                security
                A
                license
                -
                quality
                A Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.
                Last updated -
                23
                MIT License
                • Apple
                • Linux

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/claude-lmstudio-bridge'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server