mcp-bridge
mcp-bridge
Docker로 MCP 서버를 실행하고 내부에서 llama.cpp의 OpenAI 호환 API를 호출하는 구성입니다.
시작
docker compose up -d --build정지
docker compose down연결 대상
MCP 엔드포인트:
http://localhost:8000/mcp전송 방식:
streamable-http
연결 확인
406이 반환되는 경우에도 도달 확인으로서는 정상입니다. MCP 엔드포인트가 Accept 헤더를 전제로 하기 때문입니다.
curl -i http://localhost:8000/mcpClaude Code 설정
Claude Code의 MCP는 ~/.claude.json에서 관리됩니다.
로컬 스코프(특정 프로젝트만)에서 수동으로 설정하는 경우,
client-config.example.json의 형식을 ~/.claude.json에 반영하십시오.
권장: CLI로 추가
claude mcp add --transport http local-agent-helper http://localhost:8000/mcp설정 확인
claude mcp list
claude mcp get local-agent-helper보충
--scope user를 붙이면 모든 프로젝트에서 이용 가능합니다.--scope project를 사용하면 프로젝트 직하의.mcp.json에 저장됩니다.
환경 변수
.env.example을 .env로 복사하여 사용할 수 있습니다.
MCP_TRANSPORT(기본값:streamable-http)FASTMCP_HOST(기본값:0.0.0.0)FASTMCP_PORT(기본값:8000)LLAMA_CPP_SERVER_URLLLAMA_CPP_SERVER_MODELLLAMA_CPP_SERVER_TIMEOUT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'
If you have feedback or need assistance with the MCP directory API, please join our Discord server