Skip to main content
Glama

Ollama MCP Server

by NewAITees
__init__.py817 B
""" Ollama MCP サーバー - Ollamaモデルを活用したMCP互換サーバー このパッケージは、ローカルのOllama LLMインスタンスとMCP互換アプリケーションの間で シームレスな統合を可能にし、高度なタスク分解、評価、ワークフロー管理を提供します。 """ __version__ = "0.1.0" __author__ = "Kai Kogure" from . import server from . import ollama_client from . import repository from . import prompts from . import config from . import models import asyncio def main(): """メインエントリーポイント""" asyncio.run(server.main()) # パッケージレベルでのエクスポート __all__ = [ 'main', 'server', 'ollama_client', 'repository', 'prompts', 'config', 'models', '__version__' ]

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/NewAITees/ollama-MCP-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server