클로드-LM 스튜디오 브릿지
LM Studio에서 실행되는 로컬 LLM과 Claude를 연결하는 MCP 서버입니다.
개요
이 도구를 사용하면 Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용하여 다음을 제공할 수 있습니다.
- LM Studio에서 사용 가능한 모든 모델을 나열할 수 있습니다.
- 로컬 LLM을 사용하여 텍스트를 생성하는 기능
- 로컬 모델을 통한 채팅 완료 지원
- LM Studio와의 연결을 확인하기 위한 상태 점검 도구
필수 조건
- MCP 지원이 포함된 Claude Desktop
- API 서버가 활성화된 로컬에서 LM Studio가 설치 및 실행됨
- Python 3.8+ 설치됨
빠른 시작(권장)
macOS/Linux의 경우:
- 저장소를 복제합니다
지엑스피1
- 설치 스크립트 실행
- Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.
Windows의 경우:
- 저장소를 복제합니다
- 설치 스크립트 실행
- Claude Desktop을 구성하려면 설정 스크립트의 지침을 따르세요.
수동 설정
수동으로 설정하려면 다음을 수행하세요.
- 가상 환경 만들기(선택 사항이지만 권장)
- 필요한 패키지를 설치하세요
- Claude Desktop 구성:
- Claude Desktop 환경 설정 열기
- 'MCP 서버' 섹션으로 이동하세요
- 다음 구성으로 새로운 MCP 서버를 추가합니다.
- 이름 : lmstudio-bridge
- 명령어 : /bin/bash (macOS/Linux) 또는 cmd.exe (Windows)
- 인수 :
- macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
- Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat
Claude와 함께 사용
브리지를 설정한 후 Claude에서 다음 명령을 사용할 수 있습니다.
- LM Studio와의 연결을 확인하세요:
- 사용 가능한 모델 목록:
- 로컬 모델로 텍스트 생성:
- 채팅 완료 보내기:
문제 해결
LM Studio 연결 문제 진단
포함된 디버깅 도구를 사용하여 LM Studio 연결을 확인하세요.
더 자세한 테스트를 보려면:
일반적인 문제
"LM Studio API에 연결할 수 없습니다"
- LM Studio가 실행 중인지 확인하세요
- LM Studio에서 API 서버가 활성화되어 있는지 확인하세요(설정 > API 서버)
- 포트(기본값: 1234)가 .env 파일에 있는 것과 일치하는지 확인하세요.
"모델이 로드되지 않았습니다"
- LM Studio를 열고 모델을 로드합니다.
- 모델이 성공적으로 실행되는지 확인하세요
"MCP 패키지를 찾을 수 없습니다"
- 다시 설치해보세요:
pip install "mcp[cli]" httpx python-dotenv
- Python 3.8 이상을 사용하고 있는지 확인하세요.
"클로드는 다리를 찾을 수 없어"
- Claude Desktop 구성 확인
- run_server.sh 또는 run_server.bat의 경로가 올바르고 절대적인지 확인하세요.
- 서버 스크립트가 실행 가능한지 확인하세요:
chmod +x run_server.sh
(macOS/Linux)
고급 구성
다음 설정을 사용하여 .env
파일을 만들어 브리지 동작을 사용자 지정할 수 있습니다.
문제 해결을 위해 자세한 로깅을 활성화하려면 DEBUG=true
설정합니다.
특허
MIT
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Claude가 LM Studio에서 실행되는 로컬 LLM과 상호 작용할 수 있는 MCP 서버로, 로컬 모델을 통해 모델 목록, 텍스트 생성, 채팅 완성 기능을 사용할 수 있습니다.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- -securityAlicense-qualityA server for the Machine Chat Protocol (MCP) that provides a YAML-based configuration system for LLM applications, allowing users to define resources, tools, and prompts without writing code.Last updated -5PythonMIT License
- -securityFlicense-qualityAn MCP server that allows Claude and other LLMs to manage persistent memories across conversations through text file storage, enabling commands to add, search, delete and list memory entries.Last updated -2TypeScript
Fused MCP Agentsofficial
-securityAlicense-qualityA Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.Last updated -23MIT License