Skip to main content
Glama

クロード-LMStudio ブリッジ

Claude と LM Studio で実行されているローカル LLM をブリッジする MCP サーバー。

概要

このツールにより、Claude は LM Studio で実行されているローカル LLM と対話して、次のことが可能になります。

  • LM Studio で利用可能なすべてのモデルを一覧表示するためのアクセス

  • ローカルLLMを使用してテキストを生成する機能

  • ローカルモデルによるチャット補完のサポート

  • LM Studioとの接続を確認するためのヘルスチェックツール

Related MCP server: MCP Server Memory File

前提条件

  • MCPサポート付きClaudeデスクトップ

  • LM Studioがインストールされ、API サーバーが有効になっているローカルで実行されている

  • Python 3.8以降がインストールされている

クイックスタート(推奨)

macOS/Linuxの場合:

  1. リポジトリをクローンする

git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. セットアップスクリプトを実行する

chmod +x setup.sh ./setup.sh
  1. セットアップスクリプトの指示に従ってClaude Desktopを設定します

Windowsの場合:

  1. リポジトリをクローンする

git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. セットアップスクリプトを実行する

setup.bat
  1. セットアップスクリプトの指示に従ってClaude Desktopを設定します

手動設定

手動で設定したい場合は、次の手順に従います。

  1. 仮想環境を作成する(オプションだが推奨)

python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  1. 必要なパッケージをインストールする

pip install -r requirements.txt
  1. Claude デスクトップを設定します。

    • Claudeデスクトップの設定を開く

    • 「MCPサーバー」セクションに移動します

    • 次の構成で新しい MCP サーバーを追加します。

      • 名前: lmstudio-bridge

      • コマンド: /bin/bash (macOS/Linux) または cmd.exe (Windows)

      • 引数:

        • macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh

        • Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat

クロードとの使用

ブリッジを設定したら、Claude で次のコマンドを使用できます。

  1. LM Studioへの接続を確認します。

Can you check if my LM Studio server is running?
  1. 利用可能なモデルの一覧:

List the available models in my local LM Studio
  1. ローカル モデルを使用してテキストを生成します。

Generate a short poem about spring using my local LLM
  1. チャット完了を送信:

Ask my local LLM: "What are the main features of transformers in machine learning?"

トラブルシューティング

LM Studio 接続問題の診断

付属のデバッグ ツールを使用して、LM Studio 接続を確認します。

python debug_lmstudio.py

より詳細なテストについては:

python debug_lmstudio.py --test-chat --verbose

よくある問題

「LM Studio APIに接続できません」

  • LM Studioが実行中であることを確認してください

  • LM StudioでAPIサーバーが有効になっていることを確認します(設定 > APIサーバー)

  • ポート(デフォルト:1234)が.envファイルの内容と一致していることを確認します。

「モデルがロードされていません」

  • LM Studioを開いてモデルをロードする

  • モデルが正常に実行されていることを確認する

「MCP パッケージが見つかりません」

  • 再インストールを試してください: pip install "mcp[cli]" httpx python-dotenv

  • Python 3.8以降を使用していることを確認してください

「クロードは橋を見つけられない」

  • Claude Desktopの設定を確認する

  • run_server.sh または run_server.bat へのパスが正しく絶対パスであることを確認してください。

  • サーバースクリプトが実行可能であることを確認します: chmod +x run_server.sh (macOS/Linux の場合)

詳細設定

次の設定で.envファイルを作成することにより、ブリッジの動作をカスタマイズできます。

LMSTUDIO_HOST=127.0.0.1 LMSTUDIO_PORT=1234 DEBUG=false

トラブルシューティングのための詳細なログ記録を有効にするには、 DEBUG=trueを設定します。

ライセンス

マサチューセッツ工科大学

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/claude-lmstudio-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server