Skip to main content
Glama

Ollama MCP Server

by NewAITees
issue_list.ini2.21 kB
提供されたOllama MCPサーバーのログを分析したところ、以下のような問題が確認できました: 1. **Ollama API通信エラー** - `ERROR:ollama_mcp_server.ollama_client:API通信エラー: 404, message='Not Found', url='http://localhost:11434/api/generate'` - このエラーは複数回発生しており、Ollamaサーバーに対するAPI要求が失敗していることを示しています。特にモデル実行時に見られます。 2. **タスク分解失敗** - `ERROR:ollama-mcp-server:Error decomposing task: Failed to decompose task: Invalid response from model` - `ERROR:ollama-mcp-server:Service error: Failed to decompose task: Failed to decompose task: Invalid response from model, Status: 500, Details: {}` - これはモデルからの無効な応答により「decompose-task」操作が失敗していることを示しています。 3. **リソース・タスク関連のエラー** - `ERROR:ollama-mcp-server:Service error: Result not found: クラウドファンディングテンプレート分析1, Status: 404, Details: {'provided_id': 'クラウドファンディングテンプレート分析1'}` - 存在しないリソースやタスクを操作しようとしているエラーです。 これらのエラーを総合すると、Ollama MCPサーバーは正常に起動し、クライアントとの通信は問題ないようですが、実際のOllama APIとの通信が適切に行われていないことが主な問題点です。おそらく以下のような原因が考えられます: 1. Ollamaサーバーが実行されていないか、指定されたURLで応答していない 2. 必要なモデル(logs上では「llama2」や「llama3」を使用しようとしている)がOllamaにインストールされていない 3. APIの呼び出し方法やパラメータに問題がある 特に注目すべき点は、多くのリクエストが正常に処理されているように見えますが、実際にモデルを実行するような処理では404エラーが出ていることです。これはOllama自体の設定やインストールに問題がある可能性を示唆しています。

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/NewAITees/ollama-MCP-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server