-
securityA
license-
qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
Last updated -
1
Python
MIT License
将 Claude 与在 LM Studio 中运行的本地 LLM 连接起来的 MCP 服务器。
该工具允许 Claude 与在 LM Studio 中运行的本地 LLM 进行交互,提供:
如果您希望手动设置:
设置好桥接器后,可以在Claude中使用以下命令:
使用附带的调试工具检查您的 LM Studio 连接:
更详细的测试:
“无法连接到 LM Studio API”
“未加载任何模型”
“未找到 MCP 包”
pip install "mcp[cli]" httpx python-dotenv
“克劳德找不到桥”
chmod +x run_server.sh
(在 macOS/Linux 上)您可以通过创建具有以下设置的.env
文件来自定义桥接行为:
设置DEBUG=true
以启用详细日志记录以进行故障排除。
麻省理工学院
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
MCP 服务器允许 Claude 与在 LM Studio 中运行的本地 LLM 进行交互,提供对列表模型的访问、生成文本以及通过本地模型使用聊天完成。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/infinitimeless/claude-lmstudio-bridge'
If you have feedback or need assistance with the MCP directory API, please join our Discord server