-
securityA
license-
qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
Last updated -
1
24
28
JavaScript
MIT License
用于将 Ollama 与 Claude Desktop 或其他 MCP 客户端集成的模型上下文协议 (MCP) 服务器。
ollama pull llama2
)添加到您的 Claude Desktop 配置(在 macOS 上为~/Library/Application Support/Claude/claude_desktop_config.json
,在 Windows 上%APPDATA%\Claude\claude_desktop_config.json
):
以开发模式安装:
使用 MCP Inspector 进行测试:
该服务器提供四个主要工具:
list_models
- 列出所有下载的 Ollama 模型show_model
- 获取有关特定模型的详细信息ask_model
- 向指定模型提问麻省理工学院
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
MCP Ollama 服务器将 Ollama 模型与 MCP 客户端集成,允许用户列出模型、获取详细信息并通过问题与模型进行交互。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'
If you have feedback or need assistance with the MCP directory API, please join our Discord server