Skip to main content
Glama

mcp-bridge

Конфигурация для запуска сервера MCP в Docker, который внутренне вызывает API llama.cpp, совместимое с OpenAI.

Запуск

docker compose up -d --build

Остановка

docker compose down

Адрес подключения

  • Конечная точка MCP: http://localhost:8000/mcp

  • Транспорт: streamable-http

Проверка подключения

Даже если возвращается ошибка 406, это нормально для проверки доступности. Это связано с тем, что конечная точка MCP требует заголовок Accept.

curl -i http://localhost:8000/mcp

Настройка Claude Code

MCP для Claude Code управляется через ~/.claude.json.

Если вы хотите настроить его вручную для локальной области (только для определенного проекта), примените формат из client-config.example.json в ~/.claude.json.

Рекомендуется: добавление через CLI

claude mcp add --transport http local-agent-helper http://localhost:8000/mcp

Проверка настроек

claude mcp list
claude mcp get local-agent-helper

Примечания

  • Если добавить --scope user, его можно будет использовать во всех проектах.

  • Если использовать --scope project, настройки будут сохранены в .mcp.json непосредственно в папке проекта.

Переменные окружения

Вы можете скопировать .env.example в .env и использовать его.

  • MCP_TRANSPORT (по умолчанию: streamable-http)

  • FASTMCP_HOST (по умолчанию: 0.0.0.0)

  • FASTMCP_PORT (по умолчанию: 8000)

  • LLAMA_CPP_SERVER_URL

  • LLAMA_CPP_SERVER_MODEL

  • LLAMA_CPP_SERVER_TIMEOUT

F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server