클로드-LM 스튜디오 브릿지
LM Studio에서 실행되는 로컬 LLM과 Claude를 연결하는 MCP 서버입니다.
개요
이 도구를 사용하면 Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용하여 다음을 제공할 수 있습니다.
LM Studio에서 사용 가능한 모든 모델을 나열할 수 있습니다.
로컬 LLM을 사용하여 텍스트를 생성하는 기능
로컬 모델을 통한 채팅 완료 지원
LM Studio와의 연결을 확인하기 위한 상태 점검 도구
Related MCP server: MCP Server Memory File
필수 조건
MCP 지원이 포함된 Claude Desktop
API 서버가 활성화된 로컬에서 LM Studio가 설치 및 실행됨
Python 3.8+ 설치됨
빠른 시작(권장)
macOS/Linux의 경우:
저장소를 복제합니다
지엑스피1
설치 스크립트 실행
Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.
Windows의 경우:
저장소를 복제합니다
설치 스크립트 실행
Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.
수동 설정
수동으로 설정하려면 다음을 수행하세요.
가상 환경 만들기(선택 사항이지만 권장)
필요한 패키지를 설치하세요
Claude Desktop 구성:
Claude Desktop 환경 설정 열기
'MCP 서버' 섹션으로 이동하세요
다음 구성으로 새로운 MCP 서버를 추가합니다.
이름 : lmstudio-bridge
명령어 : /bin/bash (macOS/Linux) 또는 cmd.exe (Windows)
인수 :
macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat
Claude와 함께 사용
브리지를 설정한 후 Claude에서 다음 명령을 사용할 수 있습니다.
LM Studio와의 연결을 확인하세요:
사용 가능한 모델 목록:
로컬 모델로 텍스트 생성:
채팅 완료 보내기:
문제 해결
LM Studio 연결 문제 진단
포함된 디버깅 도구를 사용하여 LM Studio 연결을 확인하세요.
더 자세한 테스트를 보려면:
일반적인 문제
"LM Studio API에 연결할 수 없습니다"
LM Studio가 실행 중인지 확인하세요
LM Studio에서 API 서버가 활성화되어 있는지 확인하세요(설정 > API 서버)
포트(기본값: 1234)가 .env 파일에 있는 것과 일치하는지 확인하세요.
"모델이 로드되지 않았습니다"
LM Studio를 열고 모델을 로드합니다.
모델이 성공적으로 실행되는지 확인하세요
"MCP 패키지를 찾을 수 없습니다"
다시 설치해보세요:
pip install "mcp[cli]" httpx python-dotenvPython 3.8 이상을 사용하고 있는지 확인하세요.
"클로드는 다리를 찾을 수 없어"
Claude Desktop 구성 확인
run_server.sh 또는 run_server.bat의 경로가 올바르고 절대적인지 확인하세요.
서버 스크립트가 실행 가능한지 확인하세요:
chmod +x run_server.sh(macOS/Linux)
고급 구성
다음 설정을 사용하여 .env 파일을 만들어 브리지 동작을 사용자 지정할 수 있습니다.
문제 해결을 위해 자세한 로깅을 활성화하려면 DEBUG=true 설정합니다.
특허
MIT