Ollama MCP 服务器
🚀 Ollama 和模型上下文协议 (MCP) 之间的强大桥梁,可将 Ollama 的本地 LLM 功能无缝集成到由 MCP 驱动的应用程序中。
🌟 功能
完成 Ollama 集成
完整的 API 覆盖:通过简洁的 MCP 界面访问所有必要的 Ollama 功能
OpenAI 兼容聊天:OpenAI 聊天完成 API 的直接替代品
Local LLM Power :在本地运行 AI 模型,并具有完全控制权和隐私
核心能力
🔄模型管理
从注册表中提取模型
将模型推送到注册表
列出可用模型
从模型文件创建自定义模型
复制和删除模型
🤖模型执行
使用可自定义的提示运行模型
具有系统/用户/助理角色的聊天完成 API
可配置参数(温度、超时)
原始模式支持直接响应
🛠服务器控制
启动和管理 Ollama 服务器
查看详细模型信息
错误处理和超时管理
Related MCP server: Ollama MCP Server
🚀 入门
先决条件
您的系统上已安装Ollama
Node.js 和 npm/pnpm
安装
安装依赖项:
构建服务器:
配置
将服务器添加到您的 MCP 配置:
对于 Claude 桌面:
MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%/Claude/claude_desktop_config.json
🛠 使用示例
拉取并运行模型
聊天完成(兼容 OpenAI)
创建自定义模型
🔧 高级配置
OLLAMA_HOST:配置自定义 Ollama API 端点(默认值: http ://127.0.0.1:11434 )模型执行的超时设置(默认值:60秒)
温度控制响应随机性(0-2范围)
🤝 贡献
欢迎贡献!请随意:
报告错误
建议新功能
提交拉取请求
📝 许可证
MIT 许可证 - 请随意在您自己的项目中使用!
用❤️为 MCP 生态系统打造