Skip to main content
Glama

mcp-bridge

Docker で MCP サーバを起動し、内部で llama.cpp の OpenAI 互換 API を呼び出す構成です。

起動

docker compose up -d --build

停止

docker compose down

接続先

  • MCP エンドポイント: http://localhost:8000/mcp

  • トランスポート: streamable-http

接続確認

406 が返る場合でも、到達確認としては正常です。 MCP エンドポイントは Accept ヘッダー前提のためです。

curl -i http://localhost:8000/mcp

Claude Code 設定

Claude Code の MCP は ~/.claude.json で管理されます。

ローカルスコープ(特定プロジェクトのみ)で手動設定する場合は、 client-config.example.json の形式を ~/.claude.json に反映してください。

推奨: CLI で追加

claude mcp add --transport http local-agent-helper http://localhost:8000/mcp

設定確認

claude mcp list
claude mcp get local-agent-helper

補足

  • --scope user を付けると全プロジェクトで利用可能です。

  • --scope project を使うと、プロジェクト直下の .mcp.json に保存されます。

環境変数

.env.example.env にコピーして利用できます。

  • MCP_TRANSPORT (既定: streamable-http)

  • FASTMCP_HOST (既定: 0.0.0.0)

  • FASTMCP_PORT (既定: 8000)

  • LLAMA_CPP_SERVER_URL

  • LLAMA_CPP_SERVER_MODEL

  • LLAMA_CPP_SERVER_TIMEOUT

F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server