mcp-bridge
mcp-bridge
Dies ist eine Konfiguration, um einen MCP-Server in Docker zu starten, der intern die OpenAI-kompatible API von llama.cpp aufruft.
Starten
docker compose up -d --buildStoppen
docker compose downVerbindungsziel
MCP-Endpunkt:
http://localhost:8000/mcpTransport:
streamable-http
Verbindungsprüfung
Selbst wenn 406 zurückgegeben wird, ist dies als Erreichbarkeitsprüfung normal. Der MCP-Endpunkt setzt den Accept-Header voraus.
curl -i http://localhost:8000/mcpClaude Code Konfiguration
MCP für Claude Code wird in ~/.claude.json verwaltet.
Wenn Sie die Konfiguration manuell für einen lokalen Bereich (nur für ein bestimmtes Projekt) vornehmen möchten,
übernehmen Sie das Format aus client-config.example.json in Ihre ~/.claude.json.
Empfohlen: Hinzufügen über CLI
claude mcp add --transport http local-agent-helper http://localhost:8000/mcpKonfiguration prüfen
claude mcp list
claude mcp get local-agent-helperErgänzung
Mit
--scope userist es für alle Projekte verfügbar.Mit
--scope projectwird es in der.mcp.jsondirekt im Projektverzeichnis gespeichert.
Umgebungsvariablen
Sie können .env.example nach .env kopieren und verwenden.
MCP_TRANSPORT(Standard:streamable-http)FASTMCP_HOST(Standard:0.0.0.0)FASTMCP_PORT(Standard:8000)LLAMA_CPP_SERVER_URLLLAMA_CPP_SERVER_MODELLLAMA_CPP_SERVER_TIMEOUT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'
If you have feedback or need assistance with the MCP directory API, please join our Discord server