Integrations
Provides access to locally running LLM models via LM Studio's OpenAI-compatible API endpoints, enabling text generation with custom parameters like temperature and token limits.
LMStudio-MCP
Claude가 LM Studio를 통해 로컬로 실행되는 LLM 모델과 통신할 수 있게 해주는 MCP(모델 제어 프로토콜) 서버입니다.
개요
LMStudio-MCP는 Claude(MCP 기능 포함)와 로컬에서 실행 중인 LM Studio 인스턴스 사이에 브리지를 생성합니다. 이를 통해 Claude는 다음과 같은 작업을 수행할 수 있습니다.
- LM Studio API의 상태를 확인하세요
- 사용 가능한 모델 목록
- 현재 로드된 모델을 가져옵니다
- 로컬 모델을 사용하여 완료 생성
이를 통해 Claude의 인터페이스를 통해 로컬에서 실행되는 자체 모델을 활용하고, Claude의 기능과 개인 모델을 결합할 수 있습니다.
필수 조건
- 파이썬 3.7 이상
- 로컬로 설치 및 실행 중인 LM Studio 에 모델이 로드됨
- MCP 접근 권한이 있는 Claude
- 필수 Python 패키지(설치 참조)
설치
- 이 저장소를 복제하세요:지엑스피1
- 필요한 패키지를 설치하세요:Copy
MCP 구성
Claude가 이 브리지에 연결하려면 MCP 설정을 올바르게 구성해야 합니다. 다음 중 하나를 수행하세요.
- GitHub에서 직접 사용 :Copy
- 로컬 설치 사용 :Copy
자세한 MCP 구성 지침은 MCP_CONFIGURATION.md를 참조하세요.
용법
- LM Studio 애플리케이션을 시작하고 포트 1234(기본값)에서 실행 중인지 확인하세요.
- LM Studio에서 모델 로드
- 로컬에서 실행하는 경우(
uvx
사용하지 않는 경우), LMStudio-MCP 서버를 실행합니다.Copy - Claude에서 메시지가 표시되면 "lmstudio-mcp"를 선택하여 MCP 서버에 연결합니다.
사용 가능한 기능
다리는 다음과 같은 기능을 제공합니다.
health_check()
: LM Studio API에 접근 가능한지 확인합니다.list_models()
: LM Studio에서 사용 가능한 모든 모델 목록을 가져옵니다.get_current_model()
: 현재 로드된 모델을 식별합니다.chat_completion(prompt, system_prompt, temperature, max_tokens)
: 로컬 모델에서 텍스트를 생성합니다.
알려진 제한 사항
- 일부 모델(예: phi-3.5-mini-instruct_uncensored)에는 호환성 문제가 있을 수 있습니다.
- 현재 브리지는 LM Studio의 OpenAI 호환 API 엔드포인트만 사용합니다.
- 모델 응답은 로컬로 로드된 모델의 기능에 따라 제한됩니다.
문제 해결
API 연결 문제
Claude가 LM Studio에 연결하려고 할 때 404 오류를 보고하는 경우:
- LM Studio가 실행 중이고 모델이 로드되었는지 확인하세요.
- LM Studio 서버가 포트 1234에서 실행 중인지 확인하세요.
- 방화벽이 연결을 차단하지 않는지 확인하세요.
- 문제가 지속되면 API URL에 "localhost" 대신 "127.0.0.1"을 사용해 보세요.
모델 호환성
특정 모델이 제대로 작동하지 않는 경우:
- 일부 모델은 OpenAI 채팅 완성 API 형식을 완전히 지원하지 않을 수 있습니다.
- 문제가 있는 모델에 대해 다른 매개변수 값(온도, max_tokens)을 시도해 보세요.
- 문제가 지속되면 더 호환 가능한 모델로 전환하는 것을 고려하세요.
더 자세한 문제 해결 도움말은 TROUBLESHOOTING.md를 참조하세요.
특허
MIT
감사의 말
이 프로젝트는 원래 "Claude-LMStudio-Bridge_V2"라는 이름으로 개발되었으며, "LMStudio-MCP"로 이름이 바뀌고 오픈 소스로 공개되었습니다.
This server cannot be installed
클로드가 LM Studio를 통해 로컬에서 실행되는 LLM 모델과 통신할 수 있게 해주는 브리지로, 사용자는 클로드의 인터페이스를 통해 개인 모델을 활용할 수 있습니다.