mcp-bridge
mcp-bridge
Конфигурация для запуска сервера MCP в Docker, который внутренне вызывает API llama.cpp, совместимое с OpenAI.
Запуск
docker compose up -d --buildОстановка
docker compose downАдрес подключения
Конечная точка MCP:
http://localhost:8000/mcpТранспорт:
streamable-http
Проверка подключения
Даже если возвращается ошибка 406, это нормально для проверки доступности. Это связано с тем, что конечная точка MCP требует заголовок Accept.
curl -i http://localhost:8000/mcpНастройка Claude Code
MCP для Claude Code управляется через ~/.claude.json.
Если вы хотите настроить его вручную для локальной области (только для определенного проекта), примените формат из client-config.example.json в ~/.claude.json.
Рекомендуется: добавление через CLI
claude mcp add --transport http local-agent-helper http://localhost:8000/mcpПроверка настроек
claude mcp list
claude mcp get local-agent-helperПримечания
Если добавить
--scope user, его можно будет использовать во всех проектах.Если использовать
--scope project, настройки будут сохранены в.mcp.jsonнепосредственно в папке проекта.
Переменные окружения
Вы можете скопировать .env.example в .env и использовать его.
MCP_TRANSPORT(по умолчанию:streamable-http)FASTMCP_HOST(по умолчанию:0.0.0.0)FASTMCP_PORT(по умолчанию:8000)LLAMA_CPP_SERVER_URLLLAMA_CPP_SERVER_MODELLLAMA_CPP_SERVER_TIMEOUT
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/loopsketch/mcp-bridge'
If you have feedback or need assistance with the MCP directory API, please join our Discord server