Python
MIT License
使用 LlamaIndexTS 库提供对 LLM 的访问的 MCP 服务器。
该 MCP 服务器提供以下工具:
generate_code
:根据描述生成代码generate_code_to_file
:生成代码并将其直接写入特定行号的文件中generate_documentation
:生成代码文档ask_question
:向 LLM 提问要通过Smithery自动为 Claude Desktop 安装 LLM 服务器:
该存储库包含一个示例脚本,演示如何以编程方式使用 MCP 服务器:
该脚本启动 MCP 服务器并使用 curl 命令向其发送请求。
generate_code_to_file
工具支持相对路径和绝对路径。如果提供了相对路径,则会根据 MCP 服务器的当前工作目录进行解析。
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
一个 MCP 服务器,为 LLM 提供对其他 LLM 的访问
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sammcj/mcp-llm'
If you have feedback or need assistance with the MCP directory API, please join our Discord server