mcp-bridge
mcp-bridge
Configuración para iniciar un servidor MCP en Docker y llamar internamente a la API compatible con OpenAI de llama.cpp.
Inicio
docker compose up -d --buildDetención
docker compose downDestino de conexión
Punto final MCP:
http://localhost:8000/mcpTransporte:
streamable-http
Verificación de conexión
Incluso si se devuelve un 406, la verificación de alcance es correcta. Esto se debe a que el punto final MCP requiere el encabezado Accept.
curl -i http://localhost:8000/mcpConfiguración de Claude Code
El MCP de Claude Code se gestiona en ~/.claude.json.
Si desea configurarlo manualmente en el ámbito local (solo para un proyecto específico),
refleje el formato de client-config.example.json en ~/.claude.json.
Recomendado: Añadir mediante CLI
claude mcp add --transport http local-agent-helper http://localhost:8000/mcpVerificación de configuración
claude mcp list
claude mcp get local-agent-helperNotas adicionales
Si añade
--scope user, estará disponible en todos los proyectos.Si utiliza
--scope project, se guardará en.mcp.jsondirectamente bajo el proyecto.
Variables de entorno
Puede copiar .env.example a .env para utilizarlo.
MCP_TRANSPORT(predeterminado:streamable-http)FASTMCP_HOST(predeterminado:0.0.0.0)FASTMCP_PORT(predeterminado:8000)LLAMA_CPP_SERVER_URLLLAMA_CPP_SERVER_MODELLLAMA_CPP_SERVER_TIMEOUT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'
If you have feedback or need assistance with the MCP directory API, please join our Discord server