-
securityA
license-
qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
Last updated -
1
24
28
JavaScript
MIT License
Ollama を Claude Desktop またはその他の MCP クライアントと統合するためのモデル コンテキスト プロトコル (MCP) サーバー。
ollama pull llama2
)Claude デスクトップ構成に追加します (macOS の場合は~/Library/Application Support/Claude/claude_desktop_config.json
、Windows の場合は%APPDATA%\Claude\claude_desktop_config.json
)。
開発モードでインストールします:
MCP Inspector でテストします。
サーバーは 4 つの主なツールを提供します。
list_models
- ダウンロードしたすべての Ollama モデルを一覧表示しますshow_model
- 特定のモデルに関する詳細情報を取得しますask_model
- 指定されたモデルに質問するマサチューセッツ工科大学
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
MCP Ollama サーバーは、Ollama モデルを MCP クライアントと統合し、ユーザーがモデルを一覧表示したり、詳細情報を取得したり、質問を通じてモデルと対話したりできるようにします。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/emgeee/mcp-ollama'
If you have feedback or need assistance with the MCP directory API, please join our Discord server