Skip to main content
Glama

mcp-bridge

Docker로 MCP 서버를 실행하고 내부에서 llama.cpp의 OpenAI 호환 API를 호출하는 구성입니다.

시작

docker compose up -d --build

정지

docker compose down

연결 대상

  • MCP 엔드포인트: http://localhost:8000/mcp

  • 전송 방식: streamable-http

연결 확인

406이 반환되는 경우에도 도달 확인으로서는 정상입니다. MCP 엔드포인트가 Accept 헤더를 전제로 하기 때문입니다.

curl -i http://localhost:8000/mcp

Claude Code 설정

Claude Code의 MCP는 ~/.claude.json에서 관리됩니다.

로컬 스코프(특정 프로젝트만)에서 수동으로 설정하는 경우, client-config.example.json의 형식을 ~/.claude.json에 반영하십시오.

권장: CLI로 추가

claude mcp add --transport http local-agent-helper http://localhost:8000/mcp

설정 확인

claude mcp list
claude mcp get local-agent-helper

보충

  • --scope user를 붙이면 모든 프로젝트에서 이용 가능합니다.

  • --scope project를 사용하면 프로젝트 직하의 .mcp.json에 저장됩니다.

환경 변수

.env.example.env로 복사하여 사용할 수 있습니다.

  • MCP_TRANSPORT (기본값: streamable-http)

  • FASTMCP_HOST (기본값: 0.0.0.0)

  • FASTMCP_PORT (기본값: 8000)

  • LLAMA_CPP_SERVER_URL

  • LLAMA_CPP_SERVER_MODEL

  • LLAMA_CPP_SERVER_TIMEOUT

F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server