local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
클로드-LM 스튜디오 브릿지
LM Studio에서 실행되는 로컬 LLM과 Claude를 연결하는 MCP 서버입니다.
개요
이 도구를 사용하면 Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용하여 다음을 제공할 수 있습니다.
- LM Studio에서 사용 가능한 모든 모델을 나열할 수 있습니다.
- 로컬 LLM을 사용하여 텍스트를 생성하는 기능
- 로컬 모델을 통한 채팅 완료 지원
- LM Studio와의 연결을 확인하기 위한 상태 점검 도구
필수 조건
- MCP 지원이 포함된 Claude Desktop
- API 서버가 활성화된 로컬에서 LM Studio가 설치 및 실행됨
- Python 3.8+ 설치됨
빠른 시작(권장)
macOS/Linux의 경우:
- 저장소를 복제합니다
지엑스피1
- 설치 스크립트 실행
Copy
- Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.
Windows의 경우:
- 저장소를 복제합니다
Copy
- 설치 스크립트 실행
Copy
- Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.
수동 설정
수동으로 설정하려면 다음을 수행하세요.
- 가상 환경 만들기(선택 사항이지만 권장)
Copy
- 필요한 패키지를 설치하세요
Copy
- Claude Desktop 구성:
- Claude Desktop 환경 설정 열기
- 'MCP 서버' 섹션으로 이동하세요
- 다음 구성으로 새로운 MCP 서버를 추가합니다.
- 이름 : lmstudio-bridge
- 명령어 : /bin/bash (macOS/Linux) 또는 cmd.exe (Windows)
- 인수 :
- macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
- Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat
Claude와 함께 사용
브리지를 설정한 후 Claude에서 다음 명령을 사용할 수 있습니다.
- LM Studio와의 연결을 확인하세요:
Copy
- 사용 가능한 모델 목록:
Copy
- 로컬 모델로 텍스트 생성:
Copy
- 채팅 완료 보내기:
Copy
문제 해결
LM Studio 연결 문제 진단
포함된 디버깅 도구를 사용하여 LM Studio 연결을 확인하세요.
Copy
더 자세한 테스트를 보려면:
Copy
일반적인 문제
"LM Studio API에 연결할 수 없습니다"
- LM Studio가 실행 중인지 확인하세요
- LM Studio에서 API 서버가 활성화되어 있는지 확인하세요(설정 > API 서버)
- 포트(기본값: 1234)가 .env 파일에 있는 것과 일치하는지 확인하세요.
"모델이 로드되지 않았습니다"
- LM Studio를 열고 모델을 로드합니다.
- 모델이 성공적으로 실행되는지 확인하세요
"MCP 패키지를 찾을 수 없습니다"
- 다시 설치해보세요:
pip install "mcp[cli]" httpx python-dotenv
- Python 3.8 이상을 사용하고 있는지 확인하세요.
"클로드는 다리를 찾을 수 없어"
- Claude Desktop 구성 확인
- run_server.sh 또는 run_server.bat의 경로가 올바르고 절대적인지 확인하세요.
- 서버 스크립트가 실행 가능한지 확인하세요:
chmod +x run_server.sh
(macOS/Linux)
고급 구성
다음 설정을 사용하여 .env
파일을 만들어 브리지 동작을 사용자 지정할 수 있습니다.
Copy
문제 해결을 위해 자세한 로깅을 활성화하려면 DEBUG=true
설정합니다.
특허
MIT
This server cannot be installed
Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용할 수 있는 MCP 서버로, 로컬 모델을 통해 모델 목록, 텍스트 생성, 채팅 완성 기능을 사용할 수 있습니다.