Skip to main content
Glama

ライセンス: MIT パイソン ドッカー

🚀 FastMCP ボイラープレート

PythonFastMCPFastAPIDockerを使用して構築され、 OllamaおよびOpen-webUIと統合された最新の**MCP (モデル コントロール プレーン)**プロジェクトです。

このプロジェクトは、AI/LLM 機能を管理および公開するインテリジェント システムを構築および展開するための軽量で拡張可能な基盤を提供します。


🔧 技術スタック

  • 🐍 Python – 主要言語

  • FastMCP – AIモデルを管理するためのモデルコントロールプレーンフレームワーク

  • 🌐 FastAPI – 高性能APIバックエンド

  • 🧠 Ollama – LLM の実行とオーケストレーション

  • 🧩 Open-webUI – AIとのやり取りのためのチャットスタイルのインターフェース

  • 🐳 Docker – 開発環境と本番環境での簡単な導入と再現性を実現するためにコンテナ化されています。


Related MCP server: OpenAI and Claude MCP

🧱 機能

  • 🚀 Docker による高速起動

  • 🔌 OllamaとOpen-webUIとの簡単な統合

  • 📦 モデルとルートを追加するためのプラグ可能なアーキテクチャ

  • 🎯 ラピッドプロトタイピングまたは生産用に設計

  • ✅ OpenAPI ドキュメントに対応した REST API 対応


📦 はじめに

1. リポジトリをクローンする

git clone https://github.com/rainer85ah/mcp-server.git cd mcp-server

🐳 2. Docker Compose で実行する(推奨)

docker compose up --build

3. アプリにアクセスする

Ollama: http://localhost:11434 API Docs: http://localhost:8000/docs Open-webUI: http://localhost:3000

🌱 定型文として使用する

このプロジェクトを次のスターター テンプレートとして使用します:

  • AIチャットプラットフォーム

  • モデルルーティングゲートウェイ

  • 開発者LLMサンドボックス

  • FastAPIベースのMLバックエンド

📜 ライセンス

このプロジェクトはMIT ライセンスに基づいてライセンスされています。
このソフトウェアは、適切な帰属表示をすれば自由に使用、変更、配布できます。

🤝 貢献する

貢献を歓迎します!お気軽にどうぞ:

  • ⭐ プロジェクトにスターを付ける

  • 🍴 リポジトリをフォークする

  • 🛠️ 未解決の問題や機能リクエスト

  • 🔁 プルリクエストを送信する

📫 お問い合わせ

Rainer Arencibiaによって💡で作成されました
🔗 LinkedInで私とつながる

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/rainer85ah/mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server