mcp-bridge
mcp-bridge
这是一个在 Docker 中启动 MCP 服务器,并在内部调用 llama.cpp 的 OpenAI 兼容 API 的配置。
启动
docker compose up -d --build停止
docker compose down连接地址
MCP 端点:
http://localhost:8000/mcp传输方式:
streamable-http
连接确认
即使返回 406,作为连通性确认也是正常的。 这是因为 MCP 端点需要 Accept 标头。
curl -i http://localhost:8000/mcpClaude Code 设置
Claude Code 的 MCP 由 ~/.claude.json 管理。
若要在本地范围(仅限特定项目)手动设置,
请将 client-config.example.json 的格式应用到 ~/.claude.json 中。
推荐:通过 CLI 添加
claude mcp add --transport http local-agent-helper http://localhost:8000/mcp设置确认
claude mcp list
claude mcp get local-agent-helper补充说明
添加
--scope user可在所有项目中使用。使用
--scope project时,配置将保存到项目根目录下的.mcp.json中。
环境变量
可以将 .env.example 复制为 .env 后使用。
MCP_TRANSPORT(默认:streamable-http)FASTMCP_HOST(默认:0.0.0.0)FASTMCP_PORT(默认:8000)LLAMA_CPP_SERVER_URLLLAMA_CPP_SERVER_MODELLLAMA_CPP_SERVER_TIMEOUT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'
If you have feedback or need assistance with the MCP directory API, please join our Discord server