Skip to main content
Glama

LMStudio-MCP

Claude が LM Studio を介してローカルで実行されている LLM モデルと通信できるようにするモデル制御プロトコル (MCP) サーバー。

概要

LMStudio-MCPは、MCP機能を持つClaudeとローカルで実行されているLM Studioインスタンスの間にブリッジを作成します。これにより、Claudeは以下のことが可能になります。

  • LM Studio APIの健全性を確認する

  • 利用可能なモデルの一覧

  • 現在ロードされているモデルを取得する

  • ローカルモデルを使用して補完を生成する

これにより、Claude のインターフェースを介して独自のローカル実行モデルを活用し、Claude の機能とプライベート モデルを組み合わせることができます。

Related MCP server: Ollama MCP Server

前提条件

  • Python 3.7以上

  • LM Studioがインストールされ、モデルがロードされた状態でローカルで実行されている

  • MCPアクセス権を持つクロード

  • 必要な Python パッケージ (インストールを参照)

インストール

  1. このリポジトリをクローンします:

    git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCP
  2. 必要なパッケージをインストールします。

    pip install requests "mcp[cli]" openai

MCP構成

Claude がこのブリッジに接続するには、MCP 設定を適切に構成する必要があります。次のいずれかを実行できます。

  1. GitHub から直接使用します:

    { "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }
  2. ローカルインストールを使用する:

    { "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }

詳細な MCP 構成手順については、 MCP_CONFIGURATION.mdを参照してください。

使用法

  1. LM Studioアプリケーションを起動し、ポート1234(デフォルト)で実行されていることを確認します。

  2. LM Studioでモデルを読み込む

  3. ローカルで実行している場合( uvxを使用しない場合)、LMStudio-MCP サーバーを実行します。

    python lmstudio_bridge.py
  4. Claudeでは、プロンプトが表示されたら「lmstudio-mcp」を選択してMCPサーバーに接続します。

利用可能な機能

ブリッジは次の機能を提供します。

  • health_check() : LM Studio API にアクセスできるかどうかを確認する

  • list_models() : LM Studioで利用可能なすべてのモデルのリストを取得します。

  • get_current_model() : 現在ロードされているモデルを識別する

  • chat_completion(prompt, system_prompt, temperature, max_tokens) : ローカルモデルからテキストを生成する

既知の制限事項

  • 一部のモデル(例:phi-3.5-mini-instruct_uncensored)には互換性の問題がある可能性があります

  • このブリッジは現在、LM StudioのOpenAI互換APIエンドポイントのみを使用しています。

  • モデルの応答は、ローカルにロードされたモデルの機能によって制限されます。

トラブルシューティング

API接続の問題

Claude が LM Studio に接続しようとしたときに 404 エラーを報告した場合:

  • LM Studio が実行中で、モデルがロードされていることを確認します

  • LM Studioのサーバーがポート1234で実行されていることを確認します

  • ファイアウォールが接続をブロックしていないことを確認してください

  • 問題が解決しない場合は、API URL で「localhost」の代わりに「127.0.0.1」を使用してみてください。

モデルの互換性

特定のモデルが正しく動作しない場合は:

  • 一部のモデルはOpenAIチャット補完APIフォーマットを完全にサポートしていない可能性があります

  • 問題のあるモデルに対して、異なるパラメータ値(温度、max_tokens)を試してください。

  • 問題が解決しない場合は、より互換性のあるモデルへの切り替えを検討してください

より詳細なトラブルシューティングのヘルプについては、 TROUBLESHOOTING.md を参照してください。

ライセンス

マサチューセッツ工科大学

謝辞

このプロジェクトはもともと「Claude-LMStudio-Bridge_V2」として開発され、「LMStudio-MCP」に名前が変更され、オープンソース化されました。

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/LMStudio-MCP'

If you have feedback or need assistance with the MCP directory API, please join our Discord server