LMStudio-MCP

Integrations

  • Provides access to locally running LLM models via LM Studio's OpenAI-compatible API endpoints, enabling text generation with custom parameters like temperature and token limits.

LMStudio-MCP

Claude가 LM Studio를 통해 로컬로 실행되는 LLM 모델과 통신할 수 있게 해주는 MCP(모델 제어 프로토콜) 서버입니다.

개요

LMStudio-MCP는 Claude(MCP 기능 포함)와 로컬에서 실행 중인 LM Studio 인스턴스 사이에 브리지를 생성합니다. 이를 통해 Claude는 다음과 같은 작업을 수행할 수 있습니다.

  • LM Studio API의 상태를 확인하세요
  • 사용 가능한 모델 목록
  • 현재 로드된 모델을 가져옵니다
  • 로컬 모델을 사용하여 완료 생성

이를 통해 Claude의 인터페이스를 통해 로컬에서 실행되는 자체 모델을 활용하고, Claude의 기능과 개인 모델을 결합할 수 있습니다.

필수 조건

  • 파이썬 3.7 이상
  • 로컬로 설치 및 실행 중인 LM Studio 에 모델이 로드됨
  • MCP 접근 권한이 있는 Claude
  • 필수 Python 패키지(설치 참조)

설치

  1. 이 저장소를 복제하세요:지엑스피1
  2. 필요한 패키지를 설치하세요:
    pip install requests "mcp[cli]" openai

MCP 구성

Claude가 이 브리지에 연결하려면 MCP 설정을 올바르게 구성해야 합니다. 다음 중 하나를 수행하세요.

  1. GitHub에서 직접 사용 :
    { "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }
  2. 로컬 설치 사용 :
    { "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }

자세한 MCP 구성 지침은 MCP_CONFIGURATION.md를 참조하세요.

용법

  1. LM Studio 애플리케이션을 시작하고 포트 1234(기본값)에서 실행 중인지 확인하세요.
  2. LM Studio에서 모델 로드
  3. 로컬에서 실행하는 경우( uvx 사용하지 않는 경우), LMStudio-MCP 서버를 실행합니다.
    python lmstudio_bridge.py
  4. Claude에서 메시지가 표시되면 "lmstudio-mcp"를 선택하여 MCP 서버에 연결합니다.

사용 가능한 기능

다리는 다음과 같은 기능을 제공합니다.

  • health_check() : LM Studio API에 접근 가능한지 확인합니다.
  • list_models() : LM Studio에서 사용 가능한 모든 모델 목록을 가져옵니다.
  • get_current_model() : 현재 로드된 모델을 식별합니다.
  • chat_completion(prompt, system_prompt, temperature, max_tokens) : 로컬 모델에서 텍스트를 생성합니다.

알려진 제한 사항

  • 일부 모델(예: phi-3.5-mini-instruct_uncensored)에는 호환성 문제가 있을 수 있습니다.
  • 현재 브리지는 LM Studio의 OpenAI 호환 API 엔드포인트만 사용합니다.
  • 모델 응답은 로컬로 로드된 모델의 기능에 따라 제한됩니다.

문제 해결

API 연결 문제

Claude가 LM Studio에 연결하려고 할 때 404 오류를 보고하는 경우:

  • LM Studio가 실행 중이고 모델이 로드되었는지 확인하세요.
  • LM Studio 서버가 포트 1234에서 실행 중인지 확인하세요.
  • 방화벽이 연결을 차단하지 않는지 확인하세요.
  • 문제가 지속되면 API URL에 "localhost" 대신 "127.0.0.1"을 사용해 보세요.

모델 호환성

특정 모델이 제대로 작동하지 않는 경우:

  • 일부 모델은 OpenAI 채팅 완성 API 형식을 완전히 지원하지 않을 수 있습니다.
  • 문제가 있는 모델에 대해 다른 매개변수 값(온도, max_tokens)을 시도해 보세요.
  • 문제가 지속되면 더 호환 가능한 모델로 전환하는 것을 고려하세요.

더 자세한 문제 해결 도움말은 TROUBLESHOOTING.md를 참조하세요.

특허

MIT

감사의 말

이 프로젝트는 원래 "Claude-LMStudio-Bridge_V2"라는 이름으로 개발되었으며, "LMStudio-MCP"로 이름이 바뀌고 오픈 소스로 공개되었습니다.

-
security - not tested
A
license - permissive license
-
quality - not tested

클로드가 LM Studio를 통해 로컬에서 실행되는 LLM 모델과 통신할 수 있게 해주는 브리지로, 사용자는 클로드의 인터페이스를 통해 개인 모델을 활용할 수 있습니다.

  1. Overview
    1. Prerequisites
      1. Installation
        1. MCP Configuration
          1. Usage
            1. Available Functions
              1. Known Limitations
                1. Troubleshooting
                  1. API Connection Issues
                  2. Model Compatibility
                2. License
                  1. Acknowledgements
                    ID: 6nm5k0ghlp