Skip to main content
Glama

Claude-LMStudio Bridge

クロード-LMStudio ブリッジ

Claude と LM Studio で実行されているローカル LLM をブリッジする MCP サーバー。

概要

このツールにより、Claude は LM Studio で実行されているローカル LLM と対話して、次のことが可能になります。

  • LM Studio で利用可能なすべてのモデルを一覧表示するためのアクセス
  • ローカルLLMを使用してテキストを生成する機能
  • ローカルモデルによるチャット補完のサポート
  • LM Studioとの接続を確認するためのヘルスチェックツール

前提条件

  • MCPサポート付きClaudeデスクトップ
  • LM Studioがインストールされ、API サーバーが有効になっているローカルで実行されている
  • Python 3.8以降がインストールされている

クイックスタート(推奨)

macOS/Linuxの場合:

  1. リポジトリをクローンする
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. セットアップスクリプトを実行する
chmod +x setup.sh ./setup.sh
  1. セットアップスクリプトの指示に従ってClaude Desktopを設定します

Windowsの場合:

  1. リポジトリをクローンする
git clone https://github.com/infinitimeless/claude-lmstudio-bridge.git cd claude-lmstudio-bridge
  1. セットアップスクリプトを実行する
setup.bat
  1. セットアップスクリプトの指示に従ってClaude Desktopを設定します

手動設定

手動で設定したい場合は、次の手順に従います。

  1. 仮想環境を作成する(オプションだが推奨)
python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  1. 必要なパッケージをインストールする
pip install -r requirements.txt
  1. Claude デスクトップを設定します。
    • Claudeデスクトップの設定を開く
    • 「MCPサーバー」セクションに移動します
    • 次の構成で新しい MCP サーバーを追加します。
      • 名前: lmstudio-bridge
      • コマンド: /bin/bash (macOS/Linux) または cmd.exe (Windows)
      • 引数:
        • macOS/Linux: /path/to/claude-lmstudio-bridge/run_server.sh
        • Windows: /c C:\path\to\claude-lmstudio-bridge\run_server.bat

クロードとの使用

ブリッジを設定したら、Claude で次のコマンドを使用できます。

  1. LM Studioへの接続を確認します。
Can you check if my LM Studio server is running?
  1. 利用可能なモデルの一覧:
List the available models in my local LM Studio
  1. ローカル モデルを使用してテキストを生成します。
Generate a short poem about spring using my local LLM
  1. チャット完了を送信:
Ask my local LLM: "What are the main features of transformers in machine learning?"

トラブルシューティング

LM Studio 接続問題の診断

付属のデバッグ ツールを使用して、LM Studio 接続を確認します。

python debug_lmstudio.py

より詳細なテストについては:

python debug_lmstudio.py --test-chat --verbose

よくある問題

「LM Studio APIに接続できません」

  • LM Studioが実行中であることを確認してください
  • LM StudioでAPIサーバーが有効になっていることを確認します(設定 > APIサーバー)
  • ポート(デフォルト:1234)が.envファイルの内容と一致していることを確認します。

「モデルがロードされていません」

  • LM Studioを開いてモデルをロードする
  • モデルが正常に実行されていることを確認する

「MCP パッケージが見つかりません」

  • 再インストールを試してください: pip install "mcp[cli]" httpx python-dotenv
  • Python 3.8以降を使用していることを確認してください

「クロードは橋を見つけられない」

  • Claude Desktopの設定を確認する
  • run_server.sh または run_server.bat へのパスが正しく絶対パスであることを確認してください。
  • サーバースクリプトが実行可能であることを確認します: chmod +x run_server.sh (macOS/Linux の場合)

詳細設定

次の設定で.envファイルを作成することにより、ブリッジの動作をカスタマイズできます。

LMSTUDIO_HOST=127.0.0.1 LMSTUDIO_PORT=1234 DEBUG=false

トラブルシューティングのための詳細なログ記録を有効にするには、 DEBUG=trueを設定します。

ライセンス

マサチューセッツ工科大学

-
security - not tested
F
license - not found
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Claude が LM Studio で実行されているローカル LLM と対話できるようにする MCP サーバー。モデルのリスト、テキストの生成、ローカル モデルを介したチャット補完の使用が可能になります。

  1. 概要
    1. 前提条件
      1. クイックスタート(推奨)
        1. macOS/Linuxの場合:
        2. Windowsの場合:
      2. 手動設定
        1. クロードとの使用
          1. トラブルシューティング
            1. LM Studio 接続問題の診断
            2. よくある問題
          2. 詳細設定
            1. ライセンス

              Related MCP Servers

              • -
                security
                A
                license
                -
                quality
                MCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
                Last updated -
                1
                Python
                MIT License
              • -
                security
                A
                license
                -
                quality
                A server for the Machine Chat Protocol (MCP) that provides a YAML-based configuration system for LLM applications, allowing users to define resources, tools, and prompts without writing code.
                Last updated -
                5
                Python
                MIT License
                • Linux
                • Apple
              • -
                security
                F
                license
                -
                quality
                An MCP server that allows Claude and other LLMs to manage persistent memories across conversations through text file storage, enabling commands to add, search, delete and list memory entries.
                Last updated -
                2
                TypeScript
              • -
                security
                A
                license
                -
                quality
                A Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.
                Last updated -
                23
                MIT License
                • Apple
                • Linux

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/claude-lmstudio-bridge'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server