Skip to main content
Glama

mcp-bridge

Dies ist eine Konfiguration, um einen MCP-Server in Docker zu starten, der intern die OpenAI-kompatible API von llama.cpp aufruft.

Starten

docker compose up -d --build

Stoppen

docker compose down

Verbindungsziel

  • MCP-Endpunkt: http://localhost:8000/mcp

  • Transport: streamable-http

Verbindungsprüfung

Selbst wenn 406 zurückgegeben wird, ist dies als Erreichbarkeitsprüfung normal. Der MCP-Endpunkt setzt den Accept-Header voraus.

curl -i http://localhost:8000/mcp

Claude Code Konfiguration

MCP für Claude Code wird in ~/.claude.json verwaltet.

Wenn Sie die Konfiguration manuell für einen lokalen Bereich (nur für ein bestimmtes Projekt) vornehmen möchten, übernehmen Sie das Format aus client-config.example.json in Ihre ~/.claude.json.

Empfohlen: Hinzufügen über CLI

claude mcp add --transport http local-agent-helper http://localhost:8000/mcp

Konfiguration prüfen

claude mcp list
claude mcp get local-agent-helper

Ergänzung

  • Mit --scope user ist es für alle Projekte verfügbar.

  • Mit --scope project wird es in der .mcp.json direkt im Projektverzeichnis gespeichert.

Umgebungsvariablen

Sie können .env.example nach .env kopieren und verwenden.

  • MCP_TRANSPORT (Standard: streamable-http)

  • FASTMCP_HOST (Standard: 0.0.0.0)

  • FASTMCP_PORT (Standard: 8000)

  • LLAMA_CPP_SERVER_URL

  • LLAMA_CPP_SERVER_MODEL

  • LLAMA_CPP_SERVER_TIMEOUT

F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server