-
securityA
license-
qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.
Last updated -
1
Python
MIT License
该项目通过MCP协议将本地 LLM(例如 Qwen)连接到计算器或知识库等工具。助手会自动检测并调用这些工具来帮助解答用户疑问。
data.json
)stdio
和sse
传输文件 | 描述 |
---|---|
server.py | 注册工具并启动 MCP 服务器 |
client-http.py | 使用aiohttp 与本地 LLM 通信 |
clientopenai.py | 使用与 OpenAI 兼容的 SDK 实现 LLM + 工具调用逻辑 |
client-stdio.py | 使用 stdio 的 MCP 客户端 |
client-see.py | 使用 SSE 的 MCP 客户端 |
data.json | 问答知识库 |
Python 3.8+
安装依赖项:
requirements.txt
这将启动您的工具服务器,具有add
、 multiply
和get_knowledge_base
等功能。
确保server.py
设置:
然后运行:
回复:
响应将包括来自data.json
的相关答案。
data.json
在client-http.py
或clientopenai.py
中,更新以下内容:
确保您的 LLM 提供与 OpenAI 兼容的 API 端点。
客户端自动处理工具调用和响应。您可以使用Ctrl+C
停止服务器或客户端。
MIT 许可证。请参阅LICENSE文件。
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
通过 MCP 协议将本地 LLM 连接到外部工具(计算器、知识库),实现自动工具检测和执行,以增强查询响应。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/o6-webwork/mcp-template'
If you have feedback or need assistance with the MCP directory API, please join our Discord server