LMStudio-MCP
Claude가 LM Studio를 통해 로컬로 실행되는 LLM 모델과 통신할 수 있게 해주는 MCP(모델 제어 프로토콜) 서버입니다.
개요
LMStudio-MCP는 Claude(MCP 기능 포함)와 로컬에서 실행 중인 LM Studio 인스턴스 사이에 브리지를 생성합니다. 이를 통해 Claude는 다음과 같은 작업을 수행할 수 있습니다.
- LM Studio API의 상태를 확인하세요
- 사용 가능한 모델 목록
- 현재 로드된 모델을 가져옵니다
- 로컬 모델을 사용하여 완료 생성
이를 통해 Claude의 인터페이스를 통해 로컬에서 실행되는 자체 모델을 활용하고, Claude의 기능과 개인 모델을 결합할 수 있습니다.
필수 조건
- 파이썬 3.7 이상
- 로컬로 설치 및 실행 중인 LM Studio 에 모델이 로드됨
- MCP 접근 권한이 있는 Claude
- 필수 Python 패키지(설치 참조)
설치
- 이 저장소를 복제하세요:지엑스피1
- 필요한 패키지를 설치하세요:
MCP 구성
Claude가 이 브리지에 연결하려면 MCP 설정을 올바르게 구성해야 합니다. 다음 중 하나를 수행하세요.
- GitHub에서 직접 사용 :
- 로컬 설치 사용 :
자세한 MCP 구성 지침은 MCP_CONFIGURATION.md를 참조하세요.
용법
- LM Studio 애플리케이션을 시작하고 포트 1234(기본값)에서 실행 중인지 확인하세요.
- LM Studio에서 모델 로드
- 로컬에서 실행하는 경우(
uvx
사용하지 않는 경우), LMStudio-MCP 서버를 실행합니다. - Claude에서 메시지가 표시되면 "lmstudio-mcp"를 선택하여 MCP 서버에 연결합니다.
사용 가능한 기능
다리는 다음과 같은 기능을 제공합니다.
health_check()
: LM Studio API에 접근 가능한지 확인합니다.list_models()
: LM Studio에서 사용 가능한 모든 모델 목록을 가져옵니다.get_current_model()
: 현재 로드된 모델을 식별합니다.chat_completion(prompt, system_prompt, temperature, max_tokens)
: 로컬 모델에서 텍스트를 생성합니다.
알려진 제한 사항
- 일부 모델(예: phi-3.5-mini-instruct_uncensored)에는 호환성 문제가 있을 수 있습니다.
- 현재 브리지는 LM Studio의 OpenAI 호환 API 엔드포인트만 사용합니다.
- 모델 응답은 로컬로 로드된 모델의 기능에 따라 제한됩니다.
문제 해결
API 연결 문제
Claude가 LM Studio에 연결하려고 할 때 404 오류를 보고하는 경우:
- LM Studio가 실행 중이고 모델이 로드되었는지 확인하세요.
- LM Studio 서버가 포트 1234에서 실행 중인지 확인하세요.
- 방화벽이 연결을 차단하지 않는지 확인하세요.
- 문제가 지속되면 API URL에 "localhost" 대신 "127.0.0.1"을 사용해 보세요.
모델 호환성
특정 모델이 제대로 작동하지 않는 경우:
- 일부 모델은 OpenAI 채팅 완성 API 형식을 완전히 지원하지 않을 수 있습니다.
- 문제가 있는 모델에 대해 다른 매개변수 값(온도, max_tokens)을 시도해 보세요.
- 문제가 지속되면 더 호환 가능한 모델로 전환하는 것을 고려하세요.
더 자세한 문제 해결 도움말은 TROUBLESHOOTING.md를 참조하세요.
특허
MIT
감사의 말
이 프로젝트는 원래 "Claude-LMStudio-Bridge_V2"라는 이름으로 개발되었으며, "LMStudio-MCP"로 이름이 바뀌고 오픈 소스로 공개되었습니다.
Related MCP Servers
- -securityAlicense-qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.Last updated -16547TypeScriptAGPL 3.0
- -securityAlicense-qualityA comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.Last updated -17PythonApache 2.0
- -securityAlicense-qualityA FreeCAD addon that implements the Model Context Protocol (MCP) to enable communication between FreeCAD and Claude AI through Claude Desktop.Last updated -17PythonMIT License
Fused MCP Agentsofficial
-securityAlicense-qualityA Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.Last updated -23MIT License