local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
クロード-LMStudio ブリッジ
Claude と LM Studio で実行されているローカル LLM をブリッジする MCP サーバー。
概要
このツールにより、Claude は LM Studio で実行されているローカル LLM と対話して、次のことが可能になります。
- LM Studio で利用可能なすべてのモデルを一覧表示するためのアクセス
- ローカルLLMを使用してテキストを生成する機能
- ローカルモデルによるチャット補完のサポート
- LM Studioとの接続を確認するためのヘルスチェックツール
前提条件
- MCPサポート付きClaudeデスクトップ
- LM Studioがインストールされ、API サーバーが有効になっているローカルで実行されている
- Python 3.8以降がインストールされている
クイックスタート(推奨)
macOS/Linuxの場合:
- リポジトリをクローンする
Copy
- セットアップスクリプトを実行する
Copy
- セットアップスクリプトの指示に従ってClaude Desktopを設定します
Windowsの場合:
- リポジトリをクローンする
Copy
- セットアップスクリプトを実行する
Copy
- セットアップスクリプトの指示に従ってClaude Desktopを設定します
手動設定
手動で設定したい場合は、次の手順に従います。
- 仮想環境を作成する(オプションだが推奨)
Copy
- 必要なパッケージをインストールする
Copy
- Claude デスクトップを設定します。
- Claudeデスクトップの設定を開く
- 「MCPサーバー」セクションに移動します
- 次の構成で新しい MCP サーバーを追加します。
- 名前: lmstudio-bridge
- コマンド: /bin/bash (macOS/Linux) または cmd.exe (Windows)
- 引数:
- macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
- Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat
クロードとの使用
ブリッジを設定したら、Claude で次のコマンドを使用できます。
- LM Studioへの接続を確認します。
Copy
- 利用可能なモデルの一覧:
Copy
- ローカル モデルを使用してテキストを生成します。
Copy
- チャット完了を送信:
Copy
トラブルシューティング
LM Studio 接続問題の診断
付属のデバッグ ツールを使用して、LM Studio 接続を確認します。
Copy
より詳細なテストについては:
Copy
よくある問題
「LM Studio APIに接続できません」
- LM Studioが実行中であることを確認してください
- LM StudioでAPIサーバーが有効になっていることを確認します(設定 > APIサーバー)
- ポート(デフォルト:1234)が.envファイルの内容と一致していることを確認します。
「モデルがロードされていません」
- LM Studioを開いてモデルをロードする
- モデルが正常に実行されていることを確認する
「MCP パッケージが見つかりません」
- 再インストールを試してください:
pip install "mcp[cli]" httpx python-dotenv
- Python 3.8以降を使用していることを確認してください
「クロードは橋を見つけられない」
- Claude Desktopの設定を確認する
- run_server.sh または run_server.bat へのパスが正しく絶対パスであることを確認してください。
- サーバースクリプトが実行可能であることを確認します:
chmod +x run_server.sh
(macOS/Linux の場合)
詳細設定
次の設定で.env
ファイルを作成することにより、ブリッジの動作をカスタマイズできます。
Copy
トラブルシューティングのための詳細なログ記録を有効にするには、 DEBUG=true
を設定します。
ライセンス
マサチューセッツ工科大学
This server cannot be installed
Claude が LM Studio で実行されているローカル LLM と対話できるようにする MCP サーバー。モデルのリスト、テキストの生成、ローカル モデルを介したチャット補完の使用が可能になります。