Skip to main content
Glama

mcp-bridge

Configuración para iniciar un servidor MCP en Docker y llamar internamente a la API compatible con OpenAI de llama.cpp.

Inicio

docker compose up -d --build

Detención

docker compose down

Destino de conexión

  • Punto final MCP: http://localhost:8000/mcp

  • Transporte: streamable-http

Verificación de conexión

Incluso si se devuelve un 406, la verificación de alcance es correcta. Esto se debe a que el punto final MCP requiere el encabezado Accept.

curl -i http://localhost:8000/mcp

Configuración de Claude Code

El MCP de Claude Code se gestiona en ~/.claude.json.

Si desea configurarlo manualmente en el ámbito local (solo para un proyecto específico), refleje el formato de client-config.example.json en ~/.claude.json.

Recomendado: Añadir mediante CLI

claude mcp add --transport http local-agent-helper http://localhost:8000/mcp

Verificación de configuración

claude mcp list
claude mcp get local-agent-helper

Notas adicionales

  • Si añade --scope user, estará disponible en todos los proyectos.

  • Si utiliza --scope project, se guardará en .mcp.json directamente bajo el proyecto.

Variables de entorno

Puede copiar .env.example a .env para utilizarlo.

  • MCP_TRANSPORT (predeterminado: streamable-http)

  • FASTMCP_HOST (predeterminado: 0.0.0.0)

  • FASTMCP_PORT (predeterminado: 8000)

  • LLAMA_CPP_SERVER_URL

  • LLAMA_CPP_SERVER_MODEL

  • LLAMA_CPP_SERVER_TIMEOUT

F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server