-
securityA
license-
qualityEnables seamless integration between Ollama's local LLM models and MCP-compatible applications, supporting model management and chat interactions.
Last updated -
165
47
TypeScript
AGPL 3.0
🚀 Ollama 和模型上下文协议 (MCP) 之间的强大桥梁,可将 Ollama 的本地 LLM 功能无缝集成到由 MCP 驱动的应用程序中。
将服务器添加到您的 MCP 配置:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%/Claude/claude_desktop_config.json
OLLAMA_HOST
:配置自定义 Ollama API 端点(默认值: http ://127.0.0.1:11434 )欢迎贡献!请随意:
MIT 许可证 - 请随意在您自己的项目中使用!
用❤️为 MCP 生态系统打造
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
这座桥梁可将 Ollama 的本地 LLM 功能无缝集成到 MCP 驱动的应用程序中,让用户能够在本地管理和运行具有完整 API 覆盖的 AI 模型。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/NightTrek/Ollama-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server