LMStudio-MCP

Integrations

  • Provides access to locally running LLM models via LM Studio's OpenAI-compatible API endpoints, enabling text generation with custom parameters like temperature and token limits.

LMStudio-MCP

Claude が LM Studio を介してローカルで実行されている LLM モデルと通信できるようにするモデル制御プロトコル (MCP) サーバー。

概要

LMStudio-MCPは、MCP機能を持つClaudeとローカルで実行されているLM Studioインスタンスの間にブリッジを作成します。これにより、Claudeは以下のことが可能になります。

  • LM Studio APIの健全性を確認する
  • 利用可能なモデルの一覧
  • 現在ロードされているモデルを取得する
  • ローカルモデルを使用して補完を生成する

これにより、Claude のインターフェースを介して独自のローカル実行モデルを活用し、Claude の機能とプライベート モデルを組み合わせることができます。

前提条件

  • Python 3.7以上
  • LM Studioがインストールされ、モデルがロードされた状態でローカルで実行されている
  • MCPアクセス権を持つクロード
  • 必要な Python パッケージ (インストールを参照)

インストール

  1. このリポジトリをクローンします:
    git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCP
  2. 必要なパッケージをインストールします。
    pip install requests "mcp[cli]" openai

MCP構成

Claude がこのブリッジに接続するには、MCP 設定を適切に構成する必要があります。次のいずれかを実行できます。

  1. GitHub から直接使用します:
    { "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }
  2. ローカルインストールを使用する:
    { "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }

詳細な MCP 構成手順については、 MCP_CONFIGURATION.mdを参照してください。

使用法

  1. LM Studioアプリケーションを起動し、ポート1234(デフォルト)で実行されていることを確認します。
  2. LM Studioでモデルを読み込む
  3. ローカルで実行している場合( uvxを使用しない場合)、LMStudio-MCP サーバーを実行します。
    python lmstudio_bridge.py
  4. Claudeでは、プロンプトが表示されたら「lmstudio-mcp」を選択してMCPサーバーに接続します。

利用可能な機能

ブリッジは次の機能を提供します。

  • health_check() : LM Studio API にアクセスできるかどうかを確認する
  • list_models() : LM Studioで利用可能なすべてのモデルのリストを取得します。
  • get_current_model() : 現在ロードされているモデルを識別する
  • chat_completion(prompt, system_prompt, temperature, max_tokens) : ローカルモデルからテキストを生成する

既知の制限事項

  • 一部のモデル(例:phi-3.5-mini-instruct_uncensored)には互換性の問題がある可能性があります
  • このブリッジは現在、LM StudioのOpenAI互換APIエンドポイントのみを使用しています。
  • モデルの応答は、ローカルにロードされたモデルの機能によって制限されます。

トラブルシューティング

API接続の問題

Claude が LM Studio に接続しようとしたときに 404 エラーを報告した場合:

  • LM Studio が実行中で、モデルがロードされていることを確認します
  • LM Studioのサーバーがポート1234で実行されていることを確認します
  • ファイアウォールが接続をブロックしていないことを確認してください
  • 問題が解決しない場合は、API URL で「localhost」の代わりに「127.0.0.1」を使用してみてください。

モデルの互換性

特定のモデルが正しく動作しない場合は:

  • 一部のモデルはOpenAIチャット補完APIフォーマットを完全にサポートしていない可能性があります
  • 問題のあるモデルに対して、異なるパラメータ値(温度、max_tokens)を試してください。
  • 問題が解決しない場合は、より互換性のあるモデルへの切り替えを検討してください

より詳細なトラブルシューティングのヘルプについては、 TROUBLESHOOTING.md を参照してください。

ライセンス

マサチューセッツ工科大学

謝辞

このプロジェクトはもともと「Claude-LMStudio-Bridge_V2」として開発され、「LMStudio-MCP」に名前が変更され、オープンソース化されました。

-
security - not tested
A
license - permissive license
-
quality - not tested

local-only server

The server can only run on the client's local machine because it depends on local resources.

Claude が LM Studio を介してローカルで実行されている LLM モデルと通信できるようにするブリッジ。これにより、ユーザーは Claude のインターフェースを通じてプライベート モデルを活用できるようになります。

  1. 概要
    1. 前提条件
      1. インストール
        1. MCP構成
          1. 使用法
            1. 利用可能な機能
              1. 既知の制限事項
                1. トラブルシューティング
                  1. API接続の問題
                  2. モデルの互換性
                2. ライセンス
                  1. 謝辞

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      Enables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
                      Last updated -
                      165
                      47
                      TypeScript
                      AGPL 3.0
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.
                      Last updated -
                      17
                      Python
                      Apache 2.0
                      • Linux
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A FreeCAD addon that implements the Model Context Protocol (MCP) to enable communication between FreeCAD and Claude AI through Claude Desktop.
                      Last updated -
                      17
                      Python
                      MIT License
                      • Linux
                      • Apple
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A Python-based MCP server that allows Claude and other LLMs to execute arbitrary Python code directly through your desktop Claude app, enabling data scientists to connect LLMs to APIs and executable code.
                      Last updated -
                      23
                      MIT License
                      • Apple
                      • Linux

                    View all related MCP servers

                    ID: 6nm5k0ghlp