クロード-LMStudio ブリッジ
Claude と LM Studio で実行されているローカル LLM をブリッジする MCP サーバー。
概要
このツールにより、Claude は LM Studio で実行されているローカル LLM と対話して、次のことが可能になります。
- LM Studio で利用可能なすべてのモデルを一覧表示するためのアクセス
- ローカルLLMを使用してテキストを生成する機能
- ローカルモデルによるチャット補完のサポート
- LM Studioとの接続を確認するためのヘルスチェックツール
前提条件
- MCPサポート付きClaudeデスクトップ
- LM Studioがインストールされ、API サーバーが有効になっているローカルで実行されている
- Python 3.8以降がインストールされている
クイックスタート(推奨)
macOS/Linuxの場合:
- リポジトリをクローンする
- セットアップスクリプトを実行する
- セットアップスクリプトの指示に従ってClaude Desktopを設定します
Windowsの場合:
- リポジトリをクローンする
- セットアップスクリプトを実行する
- セットアップスクリプトの指示に従ってClaude Desktopを設定します
手動設定
手動で設定したい場合は、次の手順に従います。
- 仮想環境を作成する(オプションだが推奨)
- 必要なパッケージをインストールする
- Claude デスクトップを設定します。
- Claudeデスクトップの設定を開く
- 「MCPサーバー」セクションに移動します
- 次の構成で新しい MCP サーバーを追加します。
- 名前: lmstudio-bridge
- コマンド: /bin/bash (macOS/Linux) または cmd.exe (Windows)
- 引数:
- macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
- Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat
クロードとの使用
ブリッジを設定したら、Claude で次のコマンドを使用できます。
- LM Studioへの接続を確認します。
- 利用可能なモデルの一覧:
- ローカル モデルを使用してテキストを生成します。
- チャット完了を送信:
トラブルシューティング
LM Studio 接続問題の診断
付属のデバッグ ツールを使用して、LM Studio 接続を確認します。
より詳細なテストについては:
よくある問題
「LM Studio APIに接続できません」
- LM Studioが実行中であることを確認してください
- LM StudioでAPIサーバーが有効になっていることを確認します(設定 > APIサーバー)
- ポート(デフォルト:1234)が.envファイルの内容と一致していることを確認します。
「モデルがロードされていません」
- LM Studioを開いてモデルをロードする
- モデルが正常に実行されていることを確認する
「MCP パッケージが見つかりません」
- 再インストールを試してください:
pip install "mcp[cli]" httpx python-dotenv
- Python 3.8以降を使用していることを確認してください
「クロードは橋を見つけられない」
- Claude Desktopの設定を確認する
- run_server.sh または run_server.bat へのパスが正しく絶対パスであることを確認してください。
- サーバースクリプトが実行可能であることを確認します:
chmod +x run_server.sh
(macOS/Linux の場合)
詳細設定
次の設定で.env
ファイルを作成することにより、ブリッジの動作をカスタマイズできます。
トラブルシューティングのための詳細なログ記録を有効にするには、 DEBUG=true
を設定します。
ライセンス
マサチューセッツ工科大学
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Claude が LM Studio で実行されているローカル LLM と対話できるようにする MCP サーバー。モデルのリスト、テキストの生成、ローカル モデルを介したチャット補完の使用が可能になります。
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- -securityAlicense-qualityA server for the Machine Chat Protocol (MCP) that provides a YAML-based configuration system for LLM applications, allowing users to define resources, tools, and prompts without writing code.Last updated -5PythonMIT License
- -securityFlicense-qualityAn MCP server that allows Claude and other LLMs to manage persistent memories across conversations through text file storage, enabling commands to add, search, delete and list memory entries.Last updated -2TypeScript
Fused MCP Agentsofficial
-securityAlicense-qualityA Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.Last updated -23MIT License