Skip to main content
Glama

许可证:MIT Python Docker

🚀 FastMCP 样板

一个使用PythonFastMCPFastAPIDocker构建并与OllamaOpen-webUI集成的现代**MCP(模型控制平面)**项目。

该项目为构建和部署管理和展示 AI/LLM 功能的智能系统提供了一个轻量级、可扩展的基础。


🔧 技术栈

  • 🐍 Python – 主要语言

  • FastMCP – 用于管理 AI 模型的模型控制平面框架

  • 🌐 FastAPI – 高性能 API 后端

  • 🧠 Ollama – LLM 执行和编排

  • 🧩 Open-webUI – 用于 AI 交互的聊天式界面

  • 🐳 Docker – 容器化,可在开发和生产环境中轻松部署和重现。


Related MCP server: OpenAI and Claude MCP

🧱 功能

  • 🚀 使用 Docker 快速启动

  • 🔌 轻松与 Ollama 和 Open-webUI 集成

  • 📦 用于添加模型和路线的可插拔架构

  • 🎯 专为快速原型设计或生产使用而设计

  • ✅ REST API 已准备好,并附带 OpenAPI 文档


📦入门

1. 克隆仓库

git clone https://github.com/rainer85ah/mcp-server.git cd mcp-server

🐳 2. 使用 Docker Compose 运行(推荐)

docker compose up --build

3. 访问应用程序

Ollama: http://localhost:11434 API Docs: http://localhost:8000/docs Open-webUI: http://localhost:3000

🌱 用作样板

使用此项目作为以下项目的起始模板:

  • 人工智能聊天平台

  • 模型路由网关

  • 开发人员 LLM 沙箱

  • 基于 FastAPI 的 ML 后端

📜 许可证

该项目已获得MIT 许可
您可以自由使用、修改和分发此软件,但需注明来源。

🤝 贡献

欢迎贡献!请随意:

  • ⭐ 为项目加星标

  • 🍴 Fork 该仓库

  • 🛠️ 未解决的问题或功能请求

  • 🔁 提交拉取请求

📫 联系方式

Rainer Arencibia使用 💡 创建
🔗 在LinkedIn上与我联系

-
security - not tested
F
license - not found
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/rainer85ah/mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server